अमेरिकी सरकार से AI द्वारा पैदा होने वाले राष्ट्रीय सुरक्षा जोखिमों को कम करने के लिए “तुरंत और निर्णायक” कदम उठाने का अनुरोध किया गया है। एक सरकारी रिपोर्ट के अनुसार, यदि AI को अनियंत्रित छोड़ दिया गया, तो यह “मानव प्रजातियों के लिए विलुप्त होने के स्तर का खतरा” पैदा कर सकती है।
AGI मानवता के लिए बहुत बड़ा खतरा
रिपोर्ट में कहा गया है कि AI और विशेष रूप से AGI मानवता के लिए बहुत बड़ा खतरा हो सकती है। AGI एक काल्पनिक प्रकार की AI है जो इंसान की तरह किसी भी कार्य को समझने और करने में सक्षम होगी। रिपोर्ट में कहा गया है कि AGI उतना ही खतरनाक हो सकता है जितना कि परमाणु हथियार। AGI अभी तक सिर्फ एक कल्पना है। लेकिन AI प्रयोगशालाओं में हो रहे रिसर्च और विकास की गति को देखते हुए, यह कहना गलत नहीं होगा कि यह कल्पना जल्द ही सचाई बन सकती है।
रिपोर्ट के लेखकों ने AI उद्योग में सुरक्षा प्रैक्टिस को लेकर कई आंतरिक चिंताएं व्यक्त की हैं। उन्होंने सरकार के 200 से अधिक लोगों, AI विशेषज्ञों और लीडिंग AI कंपनियों के कर्मचारियों से बातचीत के आधार पर यह रिपोर्ट तैयार की है। रिपोर्ट में OpenAI, गूगल डीपमाइंड, Anthropic और मेटा जैसी बड़ी AI कंपनियों का जिक्र किया गया है। इन कंपनियों को अपनी सुरक्षा प्रैक्टिस में सुधार करने की आवश्यकता है।
AI के तेजी से विकास से दो गंभीर खतरे पैदा हुए
AI के तेजी से विकास से दो गंभीर खतरे पैदा हो गए हैं: हथियारीकरण और नियंत्रण खोना। आर्थिक लाभ के लिए एआई डेवलपर्स के बीच एक खतरनाक दौड़ शुरू हो सकती है, जिसमें सुरक्षा को नजरअंदाज किया जा सकता है।
जैसे-जैसे AI तकनीक आगे बढ़ रही है, चैटजीपीटी जैसे टूल के साथ, मजबूत रेगुलेटरी उपायों की मांग भी बढ़ रही है। कुछ लोग प्रस्ताव दे रहे हैं कि कुछ खास कंप्यूटिंग पावर लेवल से परे AI मॉडल को ट्रेन करना अवैध बना दिया जाए। वे इस बढ़ते क्षेत्र की देखरेख के लिए एक नई संघीय AI एजेंसी बनाने का भी सुझाव दे रहे हैं।
AI रेगुलेशन को लेकर लोगों की अलग-अलग राय
इन प्रस्तावों में हार्डवेयर और एडवांस टेक्नॉलजी रेगुलेशन की भूमिका भी शामिल है। कुछ लोग AI चिप्स के निर्माण और निर्यात पर ज्यादा नियंत्रण चाहते हैं। वे AI रिसर्च के लिए संघीय फंडिंग को बढ़ाने के महत्व पर भी जोर देते हैं।
एक प्रस्ताव AI सिस्टम की ट्रेनिंग के लिए जरूरी हाई-एंड कंप्यूटिंग रिसोर्स के प्रसार को नियंत्रित करने के उपायों का सुझाव देता है। “ग्लैडस्टोन एक्शन प्लान” का उद्देश्य AI हथियारीकरण और नियंत्रण के नुकसान से होने वाले विनाशकारी राष्ट्रीय सुरक्षा जोखिमों का मुकाबला करना है। योजना अमेरिकी सरकार के हस्तक्षेप का आह्वान करती है, जिसमें कई उपाय शामिल हैं: जैसे, एडवांस AI विकास को स्थिर करने के लिए निर्यात नियंत्रण जैसे अंतरिम सुरक्षा उपायों को लागू करना।
ग्लैडस्टोन एक्शन प्लान क्या है?
“ग्लैडस्टोन एक्शन प्लान” का उद्देश्य AI के खतरों का सामना करने और AI के लाभों का सुरक्षित रूप से उपयोग करने के लिए अमेरिकी सरकार की तैयारी और क्षमता को मजबूत करना है।
योजना के मुख्य बिंदुओं में शामिल हैं: निगरानी के लिए एक AI वेधशाला (AI Observatory) बनाना, जिम्मेदार AI विकास और अपनाने के लिए सुरक्षा उपाय स्थापित करना, AI सुरक्षा टास्क फोर्स की स्थापना करना, AI सप्लाई चेन पर नियंत्रण लगाना; एजुकेशन, ट्रेनिंग और रिस्पॉन्स फ्रेमवर्क विकास के माध्यम से ए़डवांस AI के लिए तैयारियों को मजबूत करना, AI सुरक्षा रिसर्च में राष्ट्रीय निवेश को बढ़ावा देना और AI प्रगति की तीव्र गति को संबोधित करने के लिए सुरक्षा और सुरक्षा मानकों को विकसित करना।
औपचारिक सुरक्षा उपायों में एक नियामक एजेंसी, फ्रंटियर AI सिस्टम्स एडमिनिस्ट्रेशन (FAISA) की स्थापना शामिल है, जो AI के उपयोग पर नज़र रखेगी। इसके अलावा, दीर्घकालिक AI सेफ्टी और सिक्योरिटी को कवर करने के लिए एक कानूनी दायित्व ढांचा स्थापित किया जाना चाहिए। अंतर्राष्ट्रीय कानून और सप्लाई चेन में सुधारों में AI टेक्नॉलजी में वैश्विक हथियारों की होड़ को रोकने के लिए अंतर्राष्ट्रीय कानून में AI सुरक्षा उपायों को स्थापित करना शामिल है। इसके अलावा, एक अंतर्राष्ट्रीय AI एजेंसी और अंतर्राष्ट्रीय भागीदारों के साथ AI सप्लाई चेन नियंत्रण व्यवस्था स्थापित की जानी चाहिए।