जैसे-जैसे ChatGPT जैसे AI उपकरण हमारे वर्कफ़्लो में तेज़ी से एकीकृत होते जा रहे हैं, डेटा सुरक्षा का सवाल केंद्र में आता जा रहा है। कंपनियाँ और व्यक्ति विचार-विमर्श से लेकर निर्णय लेने तक हर चीज़ के लिए इन उपकरणों पर निर्भर हैं, इसलिए यह समझना महत्वपूर्ण है कि आपके द्वारा अपलोड की गई जानकारी का क्या होता है। क्या आपका संवेदनशील डेटा साझा या लीक होने के जोखिम में है? आइए AI सिस्टम में डेटा गोपनीयता से जुड़े तथ्यों और मिथकों का पता लगाते हैं।

आपके द्वारा अपलोड की गई जानकारी का क्या होता है?

जब आप ChatGPT के साथ इंटरैक्ट करते हैं, तो आपके द्वारा प्रदान की गई जानकारी का उपयोग कई तरीकों से किया जा सकता है, जो इस बात पर निर्भर करता है कि सिस्टम कैसे कॉन्फ़िगर किया गया है और नीतियां क्या हैं:

  1. डेटा अलगाव: बातचीत सिलोइड होती है, जिसका मतलब है कि एक उपयोगकर्ता का इनपुट सीधे दूसरे के सत्र में नहीं दिखाई दे सकता। आपका डेटा दूसरे उपयोगकर्ताओं के लिए सुलभ नहीं है।
  2. प्रशिक्षण के लिए डेटा उपयोग: कुछ मामलों में, जानकारी का उपयोग AI के भविष्य के संस्करणों को बेहतर बनाने के लिए किया जा सकता है, लेकिन इस प्रक्रिया में गुमनामीकरण और एकत्रीकरण शामिल है। एंटरप्राइज़ उपयोगकर्ताओं के पास अक्सर ऑप्ट आउट करने का विकल्प होता है।
  3. कोई प्रत्यक्ष साझाकरण नहीं: ओपनएआई किसी एक उपयोगकर्ता की विशिष्ट, पहचान योग्य जानकारी को जानबूझकर या अनजाने में किसी अन्य के साथ साझा करने की अनुमति नहीं देता है।

क्या आपका डेटा किसी और के उत्तर में दिखाई दे सकता है?

यह एक आम चिंता है, लेकिन जोखिम कम है। AI व्यक्तिगत सत्रों को "याद" नहीं रखता है। हालाँकि, विचार करने के लिए कुछ बारीकियाँ हैं:

  1. सांख्यिकीय संघ: यदि अत्यधिक अनूठी या विशिष्ट जानकारी कई उपयोगकर्ताओं द्वारा बार-बार दर्ज की जाती है, तो मॉडल अपने द्वारा सीखे गए पैटर्न के आधार पर समान प्रतिक्रियाएँ उत्पन्न कर सकता है। यह कोई उल्लंघन नहीं है, बल्कि सामान्यीकृत प्रशिक्षण में एक अनपेक्षित ओवरलैप है।
  2. उद्यम संरक्षण: संवेदनशील उद्योगों में एआई उपकरणों का उपयोग करने वाली कंपनियों के लिए, एंटरप्राइज़-ग्रेड समाधान सख्त गोपनीयता प्रोटोकॉल प्रदान करते हैं और यह सुनिश्चित करते हैं कि अपलोड किए गए डेटा का उपयोग सार्वजनिक मॉडलों को प्रशिक्षित करने के लिए नहीं किया जाता है।

     

कम्पनियों को चिंतित क्यों होना चाहिए?

यद्यपि डेटा लीक होने का तत्काल जोखिम न्यूनतम है, लेकिन कंपनियों को तीसरे पक्ष के एआई प्लेटफॉर्म पर संवेदनशील जानकारी अपलोड करने के संभावित नुकसानों पर विचार करना चाहिए:

  1. नियामक अनुपालन: जीडीपीआर या एचआईपीएए जैसे डेटा संरक्षण विनियमों द्वारा शासित उद्योगों को संवेदनशील जानकारी के दुरुपयोग पर कानूनी परिणाम भुगतने पड़ सकते हैं।
  2. बौद्धिक संपदा जोखिम: एआई उपकरणों पर अपलोड किया गया स्वामित्व डेटा अनजाने में भविष्य के मॉडल आउटपुट को प्रभावित कर सकता है, जिससे गोपनीयता के बारे में चिंताएं बढ़ सकती हैं।
  3. उल्लंघन की कमज़ोरियाँ: यद्यपि ओपनएआई मजबूत सुरक्षा उपाय अपनाता है, फिर भी कोई भी प्रणाली साइबर खतरों से सुरक्षित नहीं है।

AI को सुरक्षित रूप से उपयोग करने के सर्वोत्तम तरीके

जोखिमों को कम करने के लिए, कंपनियों को इन सर्वोत्तम प्रथाओं को अपनाना चाहिए:

  1. गोपनीय डेटा अपलोड करने से बचें: जब तक आवश्यक न हो, संवेदनशील वित्तीय, स्वामित्व या व्यक्तिगत जानकारी कभी भी दर्ज न करें।
  2. एंटरप्राइज़ समाधान का उपयोग करें: उन्नत डेटा सुरक्षा उपायों के साथ AI उपकरणों के एंटरप्राइज़-ग्रेड संस्करणों का चयन करें।
  3. अपनी टीम को शिक्षित करें: कर्मचारियों को एआई प्रणालियों का सुरक्षित उपयोग करने के लिए क्या करें और क्या न करें, इस बारे में प्रशिक्षित करें।
  4. सेवा की शर्तों की समीक्षा करें: सुनिश्चित करें कि आप समझते हैं कि आपके डेटा का उपयोग किस प्रकार किया जाता है और क्या इसे प्रशिक्षण उद्देश्यों के लिए रखा जा सकता है।

मार्च 2023 में, इटली के डेटा संरक्षण प्राधिकरण (DPA) ने डेटा गोपनीयता उल्लंघन की चिंताओं का हवाला देते हुए चैटजीपीटी पर अस्थायी रूप से प्रतिबंध लगा दियाडीपीए की जांच में प्रशिक्षण एल्गोरिदम के लिए उपयोगकर्ता डेटा के बड़े पैमाने पर संग्रह और अपर्याप्त आयु सत्यापन उपायों से संबंधित मुद्दों का पता चला। चैटजीपीटी के डेवलपर ओपनएआई ने इन चिंताओं को दूर करने के उपायों को लागू करके जवाब दिया, जिसके परिणामस्वरूप लगभग चार सप्ताह बाद इटली में चैटबॉट की बहाली हुई। 
बीबीसी

यह घटना मजबूत नेतृत्व के महत्व को रेखांकित करती है। चैटजीपीटी जैसे एआई टूल का उपयोग करते समय डेटा सुरक्षा अभ्यासकंपनियों को ऐसे प्लेटफ़ॉर्म में इनपुट किए जाने वाले डेटा के बारे में सतर्क रहना चाहिए, खासकर जब वे संवेदनशील या मालिकाना जानकारी से निपट रहे हों। डेटा सुरक्षा विनियमों का अनुपालन सुनिश्चित करना और सख्त आंतरिक नीतियों को लागू करना एआई के उपयोग से जुड़े संभावित जोखिमों को कम करने में मदद कर सकता है।

सभी सुरक्षा प्रोटोकॉल लागू होने के बावजूद, ओपनएआई गोपनीय डेटा अपलोड करने से बचने की दृढ़ता से अनुशंसा करता है। यह अनुशंसा संवेदनशील जानकारी के लिए चैटजीपीटी जैसे एआई उपकरणों के उपयोग से जुड़े अंतर्निहित जोखिमों पर प्रकाश डालती है। ऐसे में, एंटरप्राइज़ कंपनियों के लिए मालिकाना या गोपनीय डेटा को संभालने के लिए इन उपकरणों पर भरोसा करना सुरक्षित नहीं है। व्यवसायों को अपने AI के उपयोग का सावधानीपूर्वक मूल्यांकन करना चाहिए और वैकल्पिक समाधानों पर विचार करना चाहिए जो डेटा गोपनीयता और अनुपालन को प्राथमिकता देते हैं।