AI के जरिए न्यूक्लियर हथियारों पर कंट्रोल कर सकता है चीन! US-UK समेत तमाम देशों की बढ़ी धुकधुकी।
1 min read
|








चीन ने उस अंतरराष्ट्रीय समझौते में शामिल होने से मना कर दिया है जो आर्टिफिशियल इंटेलिजेंस (AI) के जरिए परमाणु हथियारों के नियंत्रण पर प्रतिबंध की वकालत करता है.
परमाणु हथियार कैसी तबाही मचा सकते हैं, यह दुनिया ने उनके विकास के साथ ही 1945 में देख लिया था. जापान के नागासाकी और हिरोशिमा पर अमेरिका ने 6 और 9 अगस्त को परमाणु बम गिराए थे. वह दुनिया में परमाणु बमों के इस्तेमाल का इकलौता वाकया है. बाद के दशकों में रूस, फ्रांस, ब्रिटेन, चीन, भारत समेत कई देशों ने परमाणु हथियार बनाने की क्षमता पा ली. नतीजा यह हुआ कि छोटे-छोटे संघर्षों के भी परमाणु युद्ध में बदलने का खतरा बरकरार रहा. अब आर्टिफिशियल इंटेलिजेंस (AI) का जमाना है. अमेरिका, चीन समेत कई देश AI के सैन्य इस्तेमाल पर प्रयोग कर रहे हैं. बात यहां तक बढ़ी है कि अब AI के जरिए परमाणु हथियार कंट्रोल किए जाने का खतरा पैदा हो गया है.
चीन के रुख ने दिया नया सिरदर्द
इसी खतरे को कम करने के लिए दुनिया के 60 देश पिछले दिनों साउथ कोरिया में जमा हुए. उनका लक्ष्य यह घोषित करना था कि परमाणु हथियारों का नियंत्रण इंसानों के हाथ में ही रहेगा, AI के नहीं. अमेरिका और यूनाइटेड किंगडम (UK) जैसे देश इस समझौते में शामिल हैं, लेकिन इस घोषणा और कार्यक्रम से चीन जैसे बड़े देश ने खुद को अलग रखा. रूस को यूक्रेन युद्ध के चलते नहीं शामिल किया गया. यानी दुनिया में परमाणु हथियारों का सबसे बड़ा जखीरा रखने वाले दो देश इस सोच से इत्तेफाक नहीं रखते. यह न सिर्फ अमेरिका व अन्य पश्चिमी देशों, बल्कि पूरी दुनिया का सिरदर्द बढ़ाने वाली बात है.
चीन बार-बार AI के न्यूक्लियर कंट्रोल से करता रहा इनकार
साउथ कोरियाई राजधानी सियोल में Responsible AI in the Military Domain (REAIM) समिट बुलाई गई थी. 100 देशों का न्योता गया था, करीब 60 देश आए. इन देशों ने ‘ब्लूप्रिंट ऑफ एक्शन’ को मंजूरी दी. इसमें घोषित किया गया कि ‘परमाणु हथियारों के उपयोग से संबंधित सभी कार्यों के लिए मानवीय नियंत्रण और भागीदारी बनाए रखना आवश्यक है’. यह घोषणा एक गैर-बाध्यकारी समझौता है. REAIM समिट ऐसे वक्त हुई है जब चीन ने बार-बार परमाणु हथियारों पर AI के नियंत्रण की संभावना को खारिज करने से इनकार कर दिया है.
सियोल में इस साल REAIM समिट का दूसरा संस्करण आयोजित हुआ. पहले एडिशन में, करीब 100 देशों ने भाग लिया था. इस साल की घोषणा में यह स्वीकार किया गया कि सैन्य क्षेत्र में AI के विकास के साथ तालमेल बनाए रखने के लिए देशों को अभी लंबा रास्ता तय करना है. AFP के अनुसार, घोषणापत्र में परमाणु हथियारों पर एआई के नियंत्रण को रोकने की बात कही गई, लेकिन उल्लंघन की स्थिति में किसी प्रतिबंध या अन्य दंड का प्रावधान नहीं किया गया.
AI का सबसे घातक इस्तेमाल!
चीन लगातार अपने परमाणु हथियारों पर AI के नियंत्रण की संभावना को खारिज करता रहा है. अभी तक दुनियाभर में सेनाएं AI का इस्तेमाल निगरानी, सर्विलांस और एनालिसिस के लिए करती आई हैं. इस बात पर आम सहमति सी रही कि परमाणु हथियार दागने का फैसला हमेशा इंसानों के हाथ में रहेगा.
रिपोर्ट के अनुसार, ऐसी योजना है कि भविष्य में AI का उपयोग लक्ष्य चुनने के लिए किया जा सकता है, लेकिन अधिकांश देश अभी भी इस बात पर सहमत हैं कि लॉन्च का फैसला निर्णय मनुष्यों के हाथ में होना चाहिए. लेकिन चीन के साथ ऐसा नहीं है. जून में व्हाइट हाउस ने कहा था कि चीन ने परमाणु हथियारों के लॉन्च को कंट्रोल करने में AI की भूमिका को सीमित करने के अमेरिकी प्रस्ताव को खारिज कर दिया है.
दुनिया के सामने नया खतरा
चीन किस तरह से परमाणु हथियारों के साथ AI का इस्तेमाल करेगा, यह अभी साफ नहीं है. SIPRI का अनुमान है कि चीन के पास 500 परमाणु हथियार है और वह इनका जखीरा लगातार बढ़ा रहा है. दुनिया में सबसे ज्यादा परमाणु हथियार रूस (5,580) के पास हैं और वह भी इस घोषणा में शामिल नहीं रहा. रूस जब सोवियत यूनियन का हिस्सा हुआ करता था, तब वहां ‘डेड हैंड’ नाम का एक ऑटोनामस सिस्टम था. इसके पीछे विचार यह था कि अगर देश के शीर्ष नेताओं की हत्या हो जाती है या किसी वजह से वे सक्षम नहीं रहते, तो उस हाल में एक ऑटोनामस सिस्टम खुद-ब-खुद परमाणु हथियार लॉन्च कर देता. रिपोर्ट्स के मुताबिक, रूस अब भी इस सिस्टम का इस्तेमाल करता है.
AI नहीं, इंसान पर भरोसा करना होगा
परमाणु हथियारों जैसे विनाशक हथियारों का इस्तेमाल आखिरी विकल्प होना चाहिए. ये अपने पीछे भयानक तबाही के निशान छोड़ते हैं और पीढ़ियों तक नतीजे भुगतने पड़ते हैं. यही वजह है कि पिछले आठ दशकों में तमाम संघर्षों के बावजूद परमाणु हथियारों का दूसरी बार इस्तेमाल नहीं किया गया. न्यूक्लियर हथियारों के मामले में इंसानों पर भरोसा करना ही ठीक होगा, नहीं तो 1983 में कोल्ड वार के दौरान जैसी परिस्थितियां बनी थीं, AI तो परमाणु हथियार दाग ही देता.
26 सितंबर, 1983 को सोवियत संघ के चेतावनी सिस्टम ने रिपोर्ट दी कि अमेरिका से एक अंतरमहाद्वीपीय मिसाइल दागी गई है. उस वक्त कमांड सेंटर में बैठे सोवियत एयर डिफेंस फोर्सेज के इंजीनियर स्टैनिस पेट्रोव को शक हुआ कि कहीं यह फॉल्स अलार्म तो नहीं. उन्होंने तय कि जब तक दूसरा सबूत पुष्टि नहीं करता कि यह मिसाइल हमला है, वे शीर्ष नेतृत्व को चेतावनी नहीं देंगे. पेट्रोव के उस फैसले को अमेरिका और उसके NATO सहयोगियों के खिलाफ जवाबी परमाणु हमले को रोकने के रूप में देखा जाता है. अगर पेट्रोव ने खुद को नहीं रोका होता तो शायद पूर्ण पैमाने पर परमाणु युद्ध हो सकता था. बाद में जांच से पता चला कि वह सिस्टम वास्तव में खराब था.
About The Author
Whatsapp बटन दबा कर इस न्यूज को शेयर जरूर करें |
Advertising Space
Recent Comments