एक नए और बड़े खतरे की ओर मानवता, बड़े देशों की युद्ध में रोबोट को प्रवेश कराने की तैयारी विनाशक

रोबोट के युद्ध में उपयोग से जुड़े खतरे उस समय और बढ़ जाते हैं जब हम यह ध्यान में रखें कि बहुत से रोबोट को बड़ी संख्या में एक साथ छोड़ने की संभावना पर भी विचार हो रहा है। छोटे साइज के रोबोट को बड़ी संख्या में भेजने की संभावना भी तलाशी जा रही है, जो ‘दुश्मन’ को तलाश कर मारने में सक्षम हों।

फोटो: सोशल मीडिया
फोटो: सोशल मीडिया
user

भारत डोगरा

भविष्य के युद्धों की तैयारी में महाशक्तियां जिन तकनीकों की ओर सबसे अधिक ध्यान दे रहीं हैं, वह हैं रोबोट और आर्टिफिशियल इंटेलीजेंस (एआई) की तकनीक। एक ओर ऐसे रोबोट तैयार किए जा रहे हैं जिनका ज्यादातर नियंत्रण मनुष्यों के हाथ में रहेगा। उन्हें तरह-तरह के कार्य निभाने के लिए कहा जाएगा, इन कार्यों को असरदार ढंग से करने के लिए उन्हें कुछ अपनी निर्धारण क्षमता दी जाएगी, पर उनका अंतिम नियंत्रण बुनियादी रूप से किसी मनुष्य सैनिक अधिकारी के हाथ में ही रहेगा। पर दूसरी ओर कुछ हद तक ऐसे स्वचालित हथियारों के बारे में भी सोचा जा रहा है जिन्हें एक बार बटन दबाकर अपने विनाशक कार्य के लिए छोड़ दिया जाएगा और वे काफी हद तक ध्वंसलीला करने के लिए अपने तौर-तरीकों का उपयोग अपने ढंग से कर सकेंगे।

हालांकि कुछ स्वचालित हथियारों का उपयोग आधुनिक युद्धों में आरंभ होने के बावजूद अभी तक सही अर्थों में रोबोट का उपयोग किसी युद्ध में हुआ नहीं है। रोबोट के प्रवेश से उत्पन्न सभी तरह की सैन्य संभावनाओं को बिलकुल सटीक ढंग से बना पाना संभव नहीं है, पर इतना निश्चित है कि इससे बहुत गंभीर खतरे जुड़े हैं। विशेषकर जो बहुत हद तक ‘स्वतंत्र’ कार्यवाही करने वाले रोबोट हैं, जिन पर एक बार बटन दबाने के बाद मनुष्य सैनिक अधिकारी का नियंत्रण बहुत कम रह जाता है, वह रोबोट बहुत खतरनाक हो सकते हैं।

ऐसे रोबोट को अपने विनाशक कार्य से रोकना बहुत कठिन हो सकता है और वह निर्धारित विनाश से अधिक विनाश भी कर सकता है। उसके स्वचालित सिस्टम में कोई गलती हो जाए तो यह विनाश सभी हदों को पार कर सकता है। इतना ही नहीं, ऐसी किसी गलती (या विपक्ष द्वारा की गई तकनीकी सैबोटेज) के कारण रोबोट अपने ही पक्ष के सैनिकों या लोगों के विरुद्ध भी सक्रिय हो सकते हैं। इस तरह के रोबोट के वास्तविक उपयोग के खतरों के अलावा इस पर हो रहे प्रयोगों और टेस्ट मात्र से भी गंभीर खतरे जुड़े हैं।

रोबोट के युद्ध में उपयोग से जुड़े खतरे उस समय और बढ़ जाते हैं जब हम यह ध्यान में रखें कि बहुत से रोबोट को बड़ी संख्या में एक साथ छोड़ने की संभावना पर भी विचार हो रहा है। छोटे साईज के रोबोट को बड़ी संख्या में भेजने की संभावना भी तलाशी जा रही है, जो ‘दुश्मन’ को तलाश कर मारने में सक्षम हों।

हालांकि इस तकनीक में आरंभिक व्यय बहुत खर्चीला हो सकता है, पर महाशक्तियां विशेषकर संयुक्त राज्य अमेरिका, रूस और चीन इस निवेश के लिए तैयार हैं। इन महाशक्तियों के कई सैन्य विशेषज्ञों का मानना है कि युुद्ध की तैयारी में रोबोट और एआई में बड़े निवेश के बिना आधिपत्य की स्थिति में वे आ नहीं सकेंगे और उन्हें दूसरे के आधिपत्य के आगे झुकना होगा। इसलिए इस क्षेत्र में पीछे रहने को वे तैयार नहीं हैं।

इसके अतिरिक्त यह भी माना जा रहा है कि एक बार मूल तकनीक विकसित होने के बाद रोबोट की मुख्य भूमिका वाले युद्ध का खर्च कुछ संदर्भों में कम भी हो सकता है। छोटे रोबोट बड़ी संख्या में भेजना सस्ता पड़ सकता है। कुछ विशेष खतरनाक परिस्थितियों में रोबोट को आगे किया जा सकता है।

जब महाशक्तियां इस क्षेत्र में अपार निवेश करेंगी तो एक-दो दशक में रोबोट की भूमिका महत्त्वपूर्ण हो सकती है और इसके साथ ही मानवता के लिए नए बड़े खतरों का प्रवेश हो सकता है। इसलिए स्टीफेन हाॅकिंग जैसे कई बड़े वैज्ञानिकों ने इस बारे में चेतावनी देते हुए युद्ध में उपयोग होने वाले रोबोट पर रोक लगाने की मांग की।

विश्व स्तर पर ‘जानलेवा रोबोट को रोकने का अभियान’ (कैम्पेन टू स्टाॅप किलर रोबोट) आरंभ हो चुका है जिसे अनेक वैज्ञानिकों और विशेषज्ञों का समर्थन भी प्राप्त है। इस अभियान ने एक कानूनी तौर पर मान्य अंतर्राष्ट्रीय समझौते की मांग की है जिससे रोबोट के सैन्य उपयोग को रोका जा सके। विश्व के अनेक जाने-माने वैज्ञानिकों ने इस विषय पर एक संयुक्त पत्र भी जारी किया है।

इस तरह की मांग को लगभग सभी अमनपसंद लोग स्वीकार करते हैं, पर सवाल यह है कि इसकी स्वीकृति कैसे होगी और इसका क्रियान्वयन कैसे होगा। एक बड़ी समस्या यह है कि इस तकनीक में सबसे अधिक निवेश करने वाली तीन महाशक्तियां संयुक्त राज्य अमेरिका, रूस और चीन एक-दूसरे की जाहिर या छिपी तैयारी को देखते हुए अपनी तैयारी को और तेज कर सकती हैं। तीनों संयुक्त राष्ट्र संघ की सुरक्षा परिषद के सदस्य हैं और वीटो का अधिकार रखते हैं। इसलिए उन्हें कैसे रोका जाए यह बड़ी समस्या है।

दूसरी बाधा यह है कि रोबोट और एआई की तकनीकों के सिविल और सैन्य उपयोग में नजदीकी आपसी संबंध हैं। जो तकनीक सिविल क्षेत्र में कार्य कर रही है उसका कुछ बदलाव के साथ सैन्य उपयोग भी हो सकता है। इस तरह इन तकनीकों के सैन्य उपयोग को रोकना और भी कठिन हो जाता है।

रोबोटिक्स के सैन्य उपयोग पर खर्च निरंतर बढ़ रहा है। वर्ष 2000 में यह लगभग 1 अरब डालर था तो इस समय यह लगभग 10 अरब डालर है यानी 18 वर्ष में यह 10 गुना बढ़ गया है।

व्यवहारिक कठिनाईयां कुछ भी हों रोबोट और एआई के सैन्य उपयोग पर कुछ नियंत्रण तो लगाना ही होगा। किस तरह की तैयारियां इस क्षेत्र में चल रही हैं, संयुक्त राष्ट्र संघ के माध्यम से और निशस्त्रीकरण समझौते के माध्यम से इसमें कुछ पारदर्शिता तो लानी ही होगी। अन्यथा तो यह नया और बहुत गंभीर खतरा शीघ्र ही हाथ से बाहर निकल जाएगा।

इस तरह के खतरों को रोकने के लिए बड़े पैमाने पर इन खतरों के प्रति जनसाधारण को सचेत करना होना और उनमें ऐसे मुद्दों पर सक्रियता लाना बहुत जरूरी है। हम यह नहीं मान सकते हैं कि चंद जानकार व्यक्तियों के छोटे से अभियान से रोबोट हथियारों पर रोक लग जाएगी या इस तरह के अन्य खतरों को रोका जा सकेगा। ऐसे अभियानों की सफलता के लिए जन समर्थन की बड़ी ताकत होनी चाहिए। इस तरह का व्यापक जन समर्थन ऐसे बहुत से सार्थक अमन-शांति के मुद्दों के लिए जुटाने में कठिनाई आ रही है, जबकि बहुत से व्यर्थ के मुद्दों पर भीड़ एकत्रित की जा रही है। इसलिए विभिन्न देशों में अमन-शांति और निशस्त्रीकरण के अभियानों और आंदोलनों को बहुत गंभीरता से विमर्श करना होगा कि उनकी आवाज विश्व स्तर पर अधिक मजबूत कैसे बन सकती है।

Google न्यूज़नवजीवन फेसबुक पेज और नवजीवन ट्विटर हैंडल पर जुड़ें

प्रिय पाठकों हमारे टेलीग्राम (Telegram) चैनल से जुड़िए और पल-पल की ताज़ा खबरें पाइए, यहां क्लिक करें @navjivanindia