facebookmetapixel
Test Post कैश हुआ आउट ऑफ फैशन! अक्टूबर में UPI से हुआ अब तक का सबसे बड़ा लेनदेनChhattisgarh Liquor Scam: पूर्व CM भूपेश बघेल के बेटे चैतन्य को ED ने किया गिरफ्तारFD में निवेश का प्लान? इन 12 बैंकों में मिल रहा 8.5% तक ब्याज; जानिए जुलाई 2025 के नए TDS नियमबाबा रामदेव की कंपनी ने बाजार में मचाई हलचल, 7 दिन में 17% चढ़ा शेयर; मिल रहे हैं 2 फ्री शेयरIndian Hotels share: Q1 में 19% बढ़ा मुनाफा, शेयर 2% चढ़ा; निवेश को लेकर ब्रोकरेज की क्या है राय?Reliance ने होम अप्लायंसेस कंपनी Kelvinator को खरीदा, सौदे की रकम का खुलासा नहींITR Filing 2025: ऑनलाइन ITR-2 फॉर्म जारी, प्री-फिल्ड डेटा के साथ उपलब्ध; जानें कौन कर सकता है फाइलWipro Share Price: Q1 रिजल्ट से बाजार खुश, लेकिन ब्रोकरेज सतर्क; क्या Wipro में निवेश सही रहेगा?Air India Plane Crash: कैप्टन ने ही बंद की फ्यूल सप्लाई? वॉयस रिकॉर्डिंग से हुआ खुलासाPharma Stock एक महीने में 34% चढ़ा, ब्रोकरेज बोले- बेचकर निकल जाएं, आ सकती है बड़ी गिरावट

आर्टिफिशल इंटेलिजेंस से डर केवल जॉब गंवाने का नहीं

Last Updated- May 15, 2023 | 10:04 PM IST
Generative AI will impact labor market: WEF report
Business Standard

ज्योफ्रे हिंटन ने हाल ही में गूगल छोड़ने की घोषणा की और जब उनसे पूछा गया कि वह ऐसा क्यों कर रहे हैं तो उन्होंने जवाब दिया, ‘मैंने इसलिए छोड़ा ताकि मैं आर्टिफिशल इंटेलिजेंस (एआई) के खतरों के बारे में बिना यह सोचे बात कर सकूं कि इसका गूगल पर क्या असर होगा।’ उनकी इस बात ने हम सभी को यह सोचने पर विवश कर दिया कि आ​खिर हमारे सामने क्या कुछ आने वाला है। हम सभी हिंटन की टिप्पणी को इसलिए बहुत गंभीरता से लेते हैं क्योंकि उन्हें वैज्ञानिक हलकों में एआई के संरक्षक के तौर पर जाना जाता है। ‘न्यूट्रल नेटवर्क’ के पीछे उन्हीं का दिमाग है।

यह एक ग​णितीय अवधारणा है जो इंसानी भाषाओं के भारी-भरकम डेटाबेस से खास किस्म के रुझानों को अलग करती है। ऐसे में आप कह सकते हैं कि चैटजीपीटी जैसे कार्यक्रम बिना न्यूट्रल नेटवर्क के अ​स्तित्व में नहीं आ सकते थे और हिंटन ने इसे इस्तेमाल लायक बनाने में योगदान किया है।

ज्योफ्रे हिंटन की बातों और उनके कदमों का शायद वही प्रभाव हो जो उस समय होता अगर होमी भाभा ने सन् 1950 के दशक में यह कहते हुए परमाणु ऊर्जा आयोग छोड़ दिया होता कि, ‘मैंने इसलिए छोड़ दिया ताकि मैं बिना यह सोचे परमाणु ऊर्जा के खतरों के बारे में बात कर सकूं कि इन बातों का भारत के परमाणु कार्यक्रम पर क्या असर होगा?’

अगर वैसा होता तो भारत शायद परमाणु ऊर्जा को लेकर अपने बड़े-बड़े सपने पहले ही त्याग देता। या फिर मानो ईएमएस नंबूदरीपाद मार्क्सवादी कम्युनिस्ट पार्टी छोड़ते हुए यह कहते, ‘मैंने इसलिए पार्टी छोड़ी ताकि मैं मार्क्सवाद के खतरों के बारे में बात कर सकूं..वगैरह।’

आमतौर पर तकनीकी क्षेत्र में किसी भी नई पहल के समय कुछ लोग आशंका जताते हैं कि इससे नौकरियों को नुकसान होगा। इस बार रहस्यमय बात यह है कि एक नई तकनीक के सह रचयिता ने चेतावनी दी है। ऐसे में हमारे लिए जरूरी है कि हम उसकी बात सुनें।

तकनीक पर अगर निगरानी न रखी जाए तो वह मु​श्किल हालात पैदा कर सकती है। उदाहरण के लिए भोपाल में सन 1984 में यूनियन कार्बाइड (एवरेडी बैटरी की निर्माता) के कारखाने में घटित भोपाल गैस त्रासदी को याद कीजिए। तीन दिसंबर, 1984 को करीब 45 टन खतरनाक मिथाइल आइसोसाइनेट गैस इस कीटनाशक संयंत्र से रिसी और करीब 15,000 लोगों को अपनी जान गंवानी पड़ी। तकरीबन पांच लाख बचे हुए लोग दृ​ष्टिहीनता तथा कई प्रकार की अन्य बीमारियों के ​शिकार हुए क्योंकि वे विषाक्त गैस के संपर्क में आए थे।

इनसाइक्लोपीडिया ब्रिटानिका के अनुसार इस बात पर सहमति बनी कि कमतर परिचालन और सुरक्षा प्रक्रिया की कमी के कारण यह त्रासदी घटित हुई। दूसरे शब्दों में कहें तो यह मामला बिना समुचित निगरानी के तकनीक के इस्तेमाल का था। हिंटन ने सार्वजनिक रूप से जो चिंताएं जताईं उनमें एक प्रमुख चिंता यह थी कि ‘बुरे काम करने वाले’ एआई का इस्तेमाल करके गलत काम कर सकते हैं।

ऐसे काम जो मासूम नागरिकों को प्रभावित करें। वह उदाहरण देते हैं कि अ​धिनायकवादी नेता कृत्रिम ढंग से तैयार भाषणों और लेखन का उपयोग करके मतदाताओं को प्रभावित करते हैं। कुछ ऐसे उदाहरण भी हैं जिन्हें कहीं अ​धिक आसानी से समझा जा सकता है। एक उदाहरण है चालकरहित बस का एक यातायात संचालित पथ पर घुस जाना या सैन्य ड्रोन का मासूम लोगों पर हमला कर देना।

सवाल यह है कि ऐसे में केवल चिंतित होने के अलावा हम नीतिगत स्तर पर क्या कदम उठा सकते हैं? हाल के सप्ताहों में कई शोधकर्ताओं और सिलिकन वैली के कई ​थिंकटैंक्स ने दुनिया भर के लोगों से यह अपील करनी आरंभ की है कि वे एक ऐसे खुले पत्र पर हस्ताक्षर करें जो जीपीटी4 (चैटबॉट जीपीटी के निर्माताओं द्वारा निर्मित) से अ​धिक श​क्तिशाली एआई प्रयोगों को छह माह के लिए रोकने की मांग करता है।

फ्यूचर ऑफ लाइफ इंस्टीट्यूट ने 28,000 लोगों से ऐसी एक अपील पर हस्ताक्षर कराए। हस्ताक्षर करने वालों में टेस्ला के संस्थापक और ट्विटर के मालिक ईलॉन मस्क, ऐपल के सह-संस्थापक स्टीव वोजनियाक और डीप लर्निंग और टूरिंग अवार्ड विजेता यो​शिओ बेंजियो शामिल थे।

इन लोगों की कुछ अनुशंसाएं इस प्रकार हैं:

ऐसे तरीके निकालें जो एआई से तैयार सामग्री को पहचान सकें, एआई से होने वाले नुकसान की जवाबदेही तय हो, एआई प्रणाली के लिए तीसरे पक्ष द्वारा अंकेक्षण और प्रमाणन की व्यवस्था हो (पूरी रिपोर्ट ‘एफएलआई रिपोर्ट: पॉलिसी मेकिंग इन द पॉज’)।

हम खुद को जिस ​स्थिति में आते हैं वह सन 1990 के दशक के इंटरनेट के शुरुआती समय की याद दिलाती है। उस समय भी ऐसी ही चेतावनी दी जाती थी और कहा जाता था कि इंटरनेट तकनीक के कारण लोग घृणा फैलाने वाले या अश्लील संदेशों का प्रसार करेंगे या सूचनाओं की चोरी करेंगे। कहा जाता था कि इंटरनेट नवाचार के कारण मानवता का नष्ट होना तय है। हमने उन चिंताओं को दूर करने के लिए कानून बनाए और मध्यवर्ती प्लेटफॉर्म का निर्माण किया जो ऐसे मंच मुहैया कराते थे जहां लोग सामग्री तैयार कर सकते थे और अन्य लोग उन पर टिप्प​णियां कर सकते थे।

इसके चलते रचनाकारों और टीकाकारों को गलत व्यवहार से जुड़ी तमाम तरह की कानूनी जवाबदेहियों से मु​क्ति हासिल हुई और मध्यवर्ती कंपनियों और प्लेटफॉर्म को निरंतर नवाचार करने का अवसर मिला। इस क्षेत्र में भी वि​भिन्न प्रकार के कानून लाकर जवाबदेहियों को इसी प्रकार बांटा जा सकता है।

इन तमाम विषयों पर विचार करते हुए यह संभव है कि उन शोधकर्ताओं, निवेशकों और उद्यमियों के लिए कठिनाई पैदा हो जाए जो अपने काम को बढ़ाचढ़ाकर बताने के लिए आर्टिफिशल इंटेलिजेंस की अ​भिव्य​क्ति का इस्तेमाल कर बैठते हों। क्या ऐसी तकनीक को ‘मशीन लर्निंग’ का नाम देना अ​धिक उचित होगा?

आर्टिफिशल इंटेलिजेंस का इस्तेमाल करने से यह संकेत मिलता है कि वे जिस अलगोरिद्म या गैजेट का विकास कर रहे हैं उसमें खास तर्क श​क्ति है। यही बात दिक्कत पैदा करती है।ऐसे में क्या हमें ऐसा कानून लाने की आवश्यकता है जिसके तहत आर्टिफिशल इंटेलिजेंस पर रोक लगा दी जाए और ऐसे तमाम कामों को मशीन लर्निंग कहा जाए? (लेखक इंटरनेट उद्यमी हैं)

First Published - May 15, 2023 | 10:04 PM IST

संबंधित पोस्ट