मुंबई, 8 जुलाई, (न्यूज़ हेल्पलाइन) गुरुवार को प्रकाशित द न्यूयॉर्क टाइम्स की एक रिपोर्ट के अनुसार, 2023 में, एक हैकर ने OpenAI के – ChatGPT के पीछे की कंपनी – आंतरिक मैसेजिंग सिस्टम में घुसपैठ की। कथित तौर पर, हैकर ने एक ऑनलाइन फ़ोरम से जानकारी निकाली जहाँ OpenAI के कर्मचारी कंपनी की नवीनतम तकनीकों पर चर्चा कर रहे थे, और कंपनी की AI तकनीकों के डिज़ाइन के बारे में जानकारी चुरा ली। हालाँकि, हैकर उस सिस्टम तक नहीं पहुँच सका जहाँ कंपनी अपना AI बनाती है। रिपोर्ट के अनुसार, OpenAI ने अपने कर्मचारियों और बोर्ड को हैक के बारे में सूचित किया था, लेकिन उसने जानकारी को जनता के सामने प्रकट नहीं किया। रिपोर्ट में कंपनी द्वारा ऐसा करने का कारण बताया गया है।
OpenAI का दावा है कि जानकारी ग्राहकों से इसलिए छिपाई गई क्योंकि कंपनी ने पाया कि कथित हैक में उपयोगकर्ताओं की कोई जानकारी समझौता नहीं की गई थी। कंपनी का कहना है कि OpenAI के अधिकारियों ने जानकारी को सार्वजनिक रूप से साझा न करने का निर्णय इसलिए लिया क्योंकि हैक में ग्राहकों या उसके भागीदारों से संबंधित कोई जानकारी या डेटा चोरी नहीं हुआ था।
OpenAI के अधिकारियों ने कथित तौर पर इस घटना को राष्ट्रीय सुरक्षा के लिए खतरा नहीं माना। उनका मानना था कि हैकर एक स्वतंत्र व्यक्ति था जिसका किसी विदेशी सरकार से कोई संबंध नहीं था। नतीजतन, Microsoft समर्थित कंपनी ने संघीय कानून प्रवर्तन एजेंसियों को भी उल्लंघन के बारे में सूचित नहीं किया।
इस साल मई में, OpenAI ने बताया कि उसने पाँच गुप्त प्रभाव संचालन को विफल कर दिया था जो ऑनलाइन भ्रामक गतिविधियों के लिए अपने AI मॉडल का दुरुपयोग करने का प्रयास कर रहे थे। कंपनी ने खुलासा किया कि इन ख़तरनाक अभिनेताओं ने पिछले तीन महीनों में सोशल मीडिया प्रोफ़ाइल के लिए छोटी टिप्पणियाँ, कई भाषाओं में लंबे लेख बनाने और नकली नाम और बायो बनाने के लिए अपनी AI तकनीक का इस्तेमाल किया। सैम ऑल्टमैन के नेतृत्व वाली कंपनी ने एक बयान में कहा कि ऑपरेशन "जनता की राय में हेरफेर करने या राजनीतिक परिणामों को प्रभावित करने का प्रयास" था।
इस अभियान में रूस, चीन, ईरान और इज़राइल के अभिनेता शामिल थे और रूस के यूक्रेन पर आक्रमण, गाजा संघर्ष, भारतीय चुनाव और यूरोप और संयुक्त राज्य अमेरिका में राजनीतिक मामलों जैसे मुद्दों को संबोधित किया।
हैक के बारे में रिपोर्ट मजबूत साइबर सुरक्षा उपायों और पारदर्शिता की आवश्यकता को रेखांकित करती है, विशेष रूप से AI विकास में सबसे आगे रहने वाले संगठनों के लिए। जैसा कि AI हमारे भविष्य को आकार देना जारी रखता है, इसकी नैतिक और सुरक्षित तैनाती सुनिश्चित करना सर्वोपरि है।