facebookmetapixel
Test Post कैश हुआ आउट ऑफ फैशन! अक्टूबर में UPI से हुआ अब तक का सबसे बड़ा लेनदेनChhattisgarh Liquor Scam: पूर्व CM भूपेश बघेल के बेटे चैतन्य को ED ने किया गिरफ्तारFD में निवेश का प्लान? इन 12 बैंकों में मिल रहा 8.5% तक ब्याज; जानिए जुलाई 2025 के नए TDS नियमबाबा रामदेव की कंपनी ने बाजार में मचाई हलचल, 7 दिन में 17% चढ़ा शेयर; मिल रहे हैं 2 फ्री शेयरIndian Hotels share: Q1 में 19% बढ़ा मुनाफा, शेयर 2% चढ़ा; निवेश को लेकर ब्रोकरेज की क्या है राय?Reliance ने होम अप्लायंसेस कंपनी Kelvinator को खरीदा, सौदे की रकम का खुलासा नहींITR Filing 2025: ऑनलाइन ITR-2 फॉर्म जारी, प्री-फिल्ड डेटा के साथ उपलब्ध; जानें कौन कर सकता है फाइलWipro Share Price: Q1 रिजल्ट से बाजार खुश, लेकिन ब्रोकरेज सतर्क; क्या Wipro में निवेश सही रहेगा?Air India Plane Crash: कैप्टन ने ही बंद की फ्यूल सप्लाई? वॉयस रिकॉर्डिंग से हुआ खुलासाPharma Stock एक महीने में 34% चढ़ा, ब्रोकरेज बोले- बेचकर निकल जाएं, आ सकती है बड़ी गिरावट

AI से मानव प्रजाति के विलुप्त होने का खतरा: अमेरिकी सरकार रिपोर्ट

रिपोर्ट में कहा गया है कि AI और विशेष रूप से AGI मानवता के लिए बहुत बड़ा खतरा हो सकती है।

Last Updated- March 12, 2024 | 10:54 PM IST
Nasscom चेयरमैन का इशारा, AI से इस सेक्टर में जाएगी सबसे ज्यादा नौकरी!, BPO employees face maximum risk of getting replaced by AI: Nasscom chairman

अमेरिकी सरकार से AI द्वारा पैदा होने वाले राष्ट्रीय सुरक्षा जोखिमों को कम करने के लिए “तुरंत और निर्णायक” कदम उठाने का अनुरोध किया गया है। एक सरकारी रिपोर्ट के अनुसार, यदि AI को अनियंत्रित छोड़ दिया गया, तो यह “मानव प्रजातियों के लिए विलुप्त होने के स्तर का खतरा” पैदा कर सकती है।

AGI मानवता के लिए बहुत बड़ा खतरा

रिपोर्ट में कहा गया है कि AI और विशेष रूप से AGI मानवता के लिए बहुत बड़ा खतरा हो सकती है। AGI एक काल्पनिक प्रकार की AI है जो इंसान की तरह किसी भी कार्य को समझने और करने में सक्षम होगी। रिपोर्ट में कहा गया है कि AGI उतना ही खतरनाक हो सकता है जितना कि परमाणु हथियार। AGI अभी तक सिर्फ एक कल्पना है। लेकिन AI प्रयोगशालाओं में हो रहे रिसर्च और विकास की गति को देखते हुए, यह कहना गलत नहीं होगा कि यह कल्पना जल्द ही सचाई बन सकती है।

रिपोर्ट के लेखकों ने AI उद्योग में सुरक्षा प्रैक्टिस को लेकर कई आंतरिक चिंताएं व्यक्त की हैं। उन्होंने सरकार के 200 से अधिक लोगों, AI विशेषज्ञों और लीडिंग AI कंपनियों के कर्मचारियों से बातचीत के आधार पर यह रिपोर्ट तैयार की है। रिपोर्ट में OpenAI, गूगल डीपमाइंड, Anthropic और मेटा जैसी बड़ी AI कंपनियों का जिक्र किया गया है। इन कंपनियों को अपनी सुरक्षा प्रैक्टिस में सुधार करने की आवश्यकता है।

AI के तेजी से विकास से दो गंभीर खतरे पैदा हुए

AI के तेजी से विकास से दो गंभीर खतरे पैदा हो गए हैं: हथियारीकरण और नियंत्रण खोना। आर्थिक लाभ के लिए एआई डेवलपर्स के बीच एक खतरनाक दौड़ शुरू हो सकती है, जिसमें सुरक्षा को नजरअंदाज किया जा सकता है।

जैसे-जैसे AI तकनीक आगे बढ़ रही है, चैटजीपीटी जैसे टूल के साथ, मजबूत रेगुलेटरी उपायों की मांग भी बढ़ रही है। कुछ लोग प्रस्ताव दे रहे हैं कि कुछ खास कंप्यूटिंग पावर लेवल से परे AI मॉडल को ट्रेन करना अवैध बना दिया जाए। वे इस बढ़ते क्षेत्र की देखरेख के लिए एक नई संघीय AI एजेंसी बनाने का भी सुझाव दे रहे हैं।

AI रेगुलेशन को लेकर लोगों की अलग-अलग राय

इन प्रस्तावों में हार्डवेयर और एडवांस टेक्नॉलजी रेगुलेशन की भूमिका भी शामिल है। कुछ लोग AI चिप्स के निर्माण और निर्यात पर ज्यादा नियंत्रण चाहते हैं। वे AI रिसर्च के लिए संघीय फंडिंग को बढ़ाने के महत्व पर भी जोर देते हैं।

एक प्रस्ताव AI सिस्टम की ट्रेनिंग के लिए जरूरी हाई-एंड कंप्यूटिंग रिसोर्स के प्रसार को नियंत्रित करने के उपायों का सुझाव देता है। “ग्लैडस्टोन एक्शन प्लान” का उद्देश्य AI हथियारीकरण और नियंत्रण के नुकसान से होने वाले विनाशकारी राष्ट्रीय सुरक्षा जोखिमों का मुकाबला करना है। योजना अमेरिकी सरकार के हस्तक्षेप का आह्वान करती है, जिसमें कई उपाय शामिल हैं: जैसे, एडवांस AI विकास को स्थिर करने के लिए निर्यात नियंत्रण जैसे अंतरिम सुरक्षा उपायों को लागू करना।

ग्लैडस्टोन एक्शन प्लान क्या है?

“ग्लैडस्टोन एक्शन प्लान” का उद्देश्य AI के खतरों का सामना करने और AI के लाभों का सुरक्षित रूप से उपयोग करने के लिए अमेरिकी सरकार की तैयारी और क्षमता को मजबूत करना है।

योजना के मुख्य बिंदुओं में शामिल हैं: निगरानी के लिए एक AI वेधशाला (AI Observatory) बनाना, जिम्मेदार AI विकास और अपनाने के लिए सुरक्षा उपाय स्थापित करना, AI सुरक्षा टास्क फोर्स की स्थापना करना, AI सप्लाई चेन पर नियंत्रण लगाना; एजुकेशन, ट्रेनिंग और रिस्पॉन्स फ्रेमवर्क विकास के माध्यम से ए़डवांस AI के लिए तैयारियों को मजबूत करना, AI सुरक्षा रिसर्च में राष्ट्रीय निवेश को बढ़ावा देना और AI प्रगति की तीव्र गति को संबोधित करने के लिए सुरक्षा और सुरक्षा मानकों को विकसित करना।

औपचारिक सुरक्षा उपायों में एक नियामक एजेंसी, फ्रंटियर AI सिस्टम्स एडमिनिस्ट्रेशन (FAISA) की स्थापना शामिल है, जो AI के उपयोग पर नज़र रखेगी। इसके अलावा, दीर्घकालिक AI सेफ्टी और सिक्योरिटी को कवर करने के लिए एक कानूनी दायित्व ढांचा स्थापित किया जाना चाहिए। अंतर्राष्ट्रीय कानून और सप्लाई चेन में सुधारों में AI टेक्नॉलजी में वैश्विक हथियारों की होड़ को रोकने के लिए अंतर्राष्ट्रीय कानून में AI सुरक्षा उपायों को स्थापित करना शामिल है। इसके अलावा, एक अंतर्राष्ट्रीय AI एजेंसी और अंतर्राष्ट्रीय भागीदारों के साथ AI सप्लाई चेन नियंत्रण व्यवस्था स्थापित की जानी चाहिए।

First Published - March 12, 2024 | 10:54 PM IST

संबंधित पोस्ट