अंतरराष्ट्रीय

AI से मानव प्रजाति के विलुप्त होने का खतरा: अमेरिकी सरकार रिपोर्ट

रिपोर्ट में कहा गया है कि AI और विशेष रूप से AGI मानवता के लिए बहुत बड़ा खतरा हो सकती है।

Published by
बीएस वेब टीम   
Last Updated- March 12, 2024 | 10:54 PM IST

अमेरिकी सरकार से AI द्वारा पैदा होने वाले राष्ट्रीय सुरक्षा जोखिमों को कम करने के लिए “तुरंत और निर्णायक” कदम उठाने का अनुरोध किया गया है। एक सरकारी रिपोर्ट के अनुसार, यदि AI को अनियंत्रित छोड़ दिया गया, तो यह “मानव प्रजातियों के लिए विलुप्त होने के स्तर का खतरा” पैदा कर सकती है।

AGI मानवता के लिए बहुत बड़ा खतरा

रिपोर्ट में कहा गया है कि AI और विशेष रूप से AGI मानवता के लिए बहुत बड़ा खतरा हो सकती है। AGI एक काल्पनिक प्रकार की AI है जो इंसान की तरह किसी भी कार्य को समझने और करने में सक्षम होगी। रिपोर्ट में कहा गया है कि AGI उतना ही खतरनाक हो सकता है जितना कि परमाणु हथियार। AGI अभी तक सिर्फ एक कल्पना है। लेकिन AI प्रयोगशालाओं में हो रहे रिसर्च और विकास की गति को देखते हुए, यह कहना गलत नहीं होगा कि यह कल्पना जल्द ही सचाई बन सकती है।

रिपोर्ट के लेखकों ने AI उद्योग में सुरक्षा प्रैक्टिस को लेकर कई आंतरिक चिंताएं व्यक्त की हैं। उन्होंने सरकार के 200 से अधिक लोगों, AI विशेषज्ञों और लीडिंग AI कंपनियों के कर्मचारियों से बातचीत के आधार पर यह रिपोर्ट तैयार की है। रिपोर्ट में OpenAI, गूगल डीपमाइंड, Anthropic और मेटा जैसी बड़ी AI कंपनियों का जिक्र किया गया है। इन कंपनियों को अपनी सुरक्षा प्रैक्टिस में सुधार करने की आवश्यकता है।

AI के तेजी से विकास से दो गंभीर खतरे पैदा हुए

AI के तेजी से विकास से दो गंभीर खतरे पैदा हो गए हैं: हथियारीकरण और नियंत्रण खोना। आर्थिक लाभ के लिए एआई डेवलपर्स के बीच एक खतरनाक दौड़ शुरू हो सकती है, जिसमें सुरक्षा को नजरअंदाज किया जा सकता है।

जैसे-जैसे AI तकनीक आगे बढ़ रही है, चैटजीपीटी जैसे टूल के साथ, मजबूत रेगुलेटरी उपायों की मांग भी बढ़ रही है। कुछ लोग प्रस्ताव दे रहे हैं कि कुछ खास कंप्यूटिंग पावर लेवल से परे AI मॉडल को ट्रेन करना अवैध बना दिया जाए। वे इस बढ़ते क्षेत्र की देखरेख के लिए एक नई संघीय AI एजेंसी बनाने का भी सुझाव दे रहे हैं।

AI रेगुलेशन को लेकर लोगों की अलग-अलग राय

इन प्रस्तावों में हार्डवेयर और एडवांस टेक्नॉलजी रेगुलेशन की भूमिका भी शामिल है। कुछ लोग AI चिप्स के निर्माण और निर्यात पर ज्यादा नियंत्रण चाहते हैं। वे AI रिसर्च के लिए संघीय फंडिंग को बढ़ाने के महत्व पर भी जोर देते हैं।

एक प्रस्ताव AI सिस्टम की ट्रेनिंग के लिए जरूरी हाई-एंड कंप्यूटिंग रिसोर्स के प्रसार को नियंत्रित करने के उपायों का सुझाव देता है। “ग्लैडस्टोन एक्शन प्लान” का उद्देश्य AI हथियारीकरण और नियंत्रण के नुकसान से होने वाले विनाशकारी राष्ट्रीय सुरक्षा जोखिमों का मुकाबला करना है। योजना अमेरिकी सरकार के हस्तक्षेप का आह्वान करती है, जिसमें कई उपाय शामिल हैं: जैसे, एडवांस AI विकास को स्थिर करने के लिए निर्यात नियंत्रण जैसे अंतरिम सुरक्षा उपायों को लागू करना।

ग्लैडस्टोन एक्शन प्लान क्या है?

“ग्लैडस्टोन एक्शन प्लान” का उद्देश्य AI के खतरों का सामना करने और AI के लाभों का सुरक्षित रूप से उपयोग करने के लिए अमेरिकी सरकार की तैयारी और क्षमता को मजबूत करना है।

योजना के मुख्य बिंदुओं में शामिल हैं: निगरानी के लिए एक AI वेधशाला (AI Observatory) बनाना, जिम्मेदार AI विकास और अपनाने के लिए सुरक्षा उपाय स्थापित करना, AI सुरक्षा टास्क फोर्स की स्थापना करना, AI सप्लाई चेन पर नियंत्रण लगाना; एजुकेशन, ट्रेनिंग और रिस्पॉन्स फ्रेमवर्क विकास के माध्यम से ए़डवांस AI के लिए तैयारियों को मजबूत करना, AI सुरक्षा रिसर्च में राष्ट्रीय निवेश को बढ़ावा देना और AI प्रगति की तीव्र गति को संबोधित करने के लिए सुरक्षा और सुरक्षा मानकों को विकसित करना।

औपचारिक सुरक्षा उपायों में एक नियामक एजेंसी, फ्रंटियर AI सिस्टम्स एडमिनिस्ट्रेशन (FAISA) की स्थापना शामिल है, जो AI के उपयोग पर नज़र रखेगी। इसके अलावा, दीर्घकालिक AI सेफ्टी और सिक्योरिटी को कवर करने के लिए एक कानूनी दायित्व ढांचा स्थापित किया जाना चाहिए। अंतर्राष्ट्रीय कानून और सप्लाई चेन में सुधारों में AI टेक्नॉलजी में वैश्विक हथियारों की होड़ को रोकने के लिए अंतर्राष्ट्रीय कानून में AI सुरक्षा उपायों को स्थापित करना शामिल है। इसके अलावा, एक अंतर्राष्ट्रीय AI एजेंसी और अंतर्राष्ट्रीय भागीदारों के साथ AI सप्लाई चेन नियंत्रण व्यवस्था स्थापित की जानी चाहिए।

First Published : March 12, 2024 | 10:54 PM IST