[ad_1]
![]()
मेलबर्न: इजरायली सेना ने एक नई कृत्रिम बुद्धिमत्ता (AI) प्रणाली का उपयोग करके गाजा में संभावित हवाई हमलों के लिए हजारों मानव लक्ष्यों की सूची तैयार की। पिछले सप्ताह प्रकाशित एक रिपोर्ट में यह जानकारी दी गई। रिपोर्ट गैर-लाभकारी आउटलेट +972 मैगज़ीन से आई है, जो इज़रायली और फ़लस्तीनी पत्रकारों द्वारा चलाया जाता है। रिपोर्ट में इज़रायली ख़ुफ़िया विभाग के छह अज्ञात स्रोतों के साक्षात्कार का हवाला दिया गया है। सूत्रों का दावा है कि सिस्टम, जिसे लैवेंडर के नाम से जाना जाता है, का उपयोग अन्य एआई सिस्टम के साथ संदिग्ध आतंकवादियों को लक्षित करने और उनकी हत्या करने के लिए किया गया था, जिनमें से कई अपने ही घरों में थे जिससे बड़ी संख्या में नागरिक हताहत हुए।
गार्डियन की एक अन्य रिपोर्ट के अनुसार, +972 रिपोर्ट के समान स्रोतों के आधार पर, एक खुफिया अधिकारी ने कहा कि सिस्टम ने बड़ी संख्या में हमलों को अंजाम देना आसान बना दिया, क्योंकि मशीन ने इसे ठंडे दिमाग से किया। जैसा कि दुनिया भर की सेनाएं एआई का उपयोग करने की होड़ में हैं, ये रिपोर्टें हमें दिखाती हैं कि यह कैसा दिख सकता है सीमित सटीकता और कम मानवीय निरीक्षण के साथ मशीन-स्पीड युद्ध, जिसमें नागरिकों को भारी नुकसान होगा। इज़रायली रक्षा बल इन रिपोर्टों में कई दावों का खंडन करता है। गार्जियन को दिए एक बयान में, उसने कहा कि वह आतंकवादी गुर्गों की पहचान करने वाली कृत्रिम बुद्धिमत्ता प्रणाली का उपयोग नहीं करता है।
इसमें कहा गया है कि लैवेंडर एक एआई सिस्टम नहीं है बल्कि सिर्फ एक डेटाबेस है जिसका उद्देश्य खुफिया स्रोतों को क्रॉस-रेफरेंस करना है। लेकिन 2021 में, येरूसलम पोस्ट ने एक खुफिया अधिकारी की रिपोर्ट में कहा कि इज़राइल ने अपना पहला एआई युद्ध जीता है। डेटा का निरीक्षण करने और लक्ष्य तैयार करने के लिए वह कई मशीन लर्निंग सिस्टम का उपयोग कर रहा है। उसी वर्ष द ह्यूमन-मशीन टीम नामक एक पुस्तक, जिसमें एआई-संचालित युद्ध के दृष्टिकोण को रेखांकित किया गया था, एक लेखक द्वारा छद्म नाम के तहत प्रकाशित की गई थी, जिसे हाल ही में एक प्रमुख इजरायली गुप्त खुफिया इकाई का प्रमुख बताया गया था। पिछले साल, एक अन्य +972 रिपोर्ट में कहा गया था कि इज़राइल संभावित आतंकवादी इमारतों और बमबारी सुविधाओं की पहचान करने के लिए हब्सोरा नामक एक एआई सिस्टम का भी उपयोग करता है।
रिपोर्ट के अनुसार, हब्सोरा लगभग स्वचालित रूप से लक्ष्य उत्पन्न करता है, और एक पूर्व खुफिया अधिकारी ने इसे सामूहिक हत्या का कारखाना बताया। हालिया +972 रिपोर्ट में एक तीसरी प्रणाली का भी दावा किया गया है, जिसे व्हेयर इज डैडी? कहा जाता है, जो लैवेंडर द्वारा पहचाने गए लक्ष्यों की निगरानी करती है और जब वे अपने परिवार के पास घर लौटते हैं तो सेना को सचेत करती है। कई देश सैन्य बढ़त की तलाश में एल्गोरिदम की ओर रुख कर रहे हैं। अमेरिकी सेना का प्रोजेक्ट मावेन एआई लक्ष्यीकरण की आपूर्ति करता है जिसका उपयोग मध्य पूर्व और यूक्रेन में किया गया है।
चीन भी डेटा का विश्लेषण करने, लक्ष्यों का चयन करने और निर्णय लेने में सहायता के लिए एआई सिस्टम विकसित करने की ओर अग्रसर है। सैन्य एआई के समर्थकों का तर्क है कि यह तेजी से निर्णय लेने, अधिक सटीकता और युद्ध में हताहतों की संख्या को कम करने में मदद करेगा। वैसे पिछले साल, मिडिल ईस्ट आई ने बताया कि एक इजरायली खुफिया कार्यालय ने कहा कि गाजा में प्रत्येक एआई-जनित लक्ष्य की मानव समीक्षा करना बिल्कुल भी संभव नहीं है। एक अन्य सूत्र ने +972 को बताया कि वे व्यक्तिगत रूप से प्रत्येक लक्ष्य के लिए 20 सेकंड लगाएंगे जो केवल अनुमोदन से ज्यादा और कुछ नहीं होगा। नवीनतम रिपोर्ट पर इजरायली रक्षा बल की प्रतिक्रिया में कहा गया है, विश्लेषकों को स्वतंत्र परीक्षा आयोजित करनी चाहिए, जिसमें वे सत्यापित करें कि पहचाने गए लक्ष्य अंतरराष्ट्रीय कानून के अनुसार प्रासंगिक परिभाषाओं को पूरा करते हैं।
सटीकता के लिए, नवीनतम +972 रिपोर्ट में दावा किया गया है कि लैवेंडर पहचान और क्रॉस-चेकिंग की प्रक्रिया को स्वचालित करता है ताकि यह सुनिश्चित किया जा सके कि संभावित लक्ष्य हमास का एक वरिष्ठ सैन्य व्यक्ति है। रिपोर्ट के अनुसार, लैवेंडर ने निम्न-रैंकिंग कर्मियों और साक्ष्य के कमजोर मानकों को शामिल करने के लिए लक्ष्यीकरण मानदंडों को ढीला कर दिया, और लगभग 10 प्रतिशत मामलों में त्रुटियां कीं। रिपोर्ट में यह भी दावा किया गया है कि एक इजरायली खुफिया अधिकारी ने बताया है कि व्हेयर इज डैडी? से जानकारी मिलने पर प्रणाली, लक्ष्यों पर बिना किसी हिचकिचाहट के, पहले विकल्प के तौर पर” उनके घरों पर बमबारी करेगी, जिससे नागरिक हताहत होंगे। इज़रायली सेना का कहना है कि वह हजारों लोगों को उनके घरों में मारने की किसी भी नीति के दावे को सिरे से खारिज करती है।
जैसे-जैसे एआई का सैन्य उपयोग आम होता जा रहा है, नैतिक और कानूनी चिंताओं पर बहुत कम ध्यान दिया गया है। सैन्य एआई के बारे में अभी तक कोई स्पष्ट, सार्वभौमिक रूप से स्वीकृत या कानूनी रूप से बाध्यकारी नियम नहीं हैं। संयुक्त राष्ट्र दस वर्षों से अधिक समय से घातक स्वायत्त हथियार प्रणालियों पर चर्चा कर रहा है। ये उपकरण ऐसे हैं जो मानव इनपुट के बिना लक्ष्य साधने और फायरिंग करने का निर्णय ले सकते हैं, जिन्हें कभी-कभी हत्यारे रोबोट के रूप में जाना जाता है। संयुक्त राष्ट्र महासभा ने यह सुनिश्चित करने के लिए एक नए मसौदा प्रस्ताव के पक्ष में मतदान किया कि एल्गोरिदम को हत्या से जुड़े निर्णयों पर पूर्ण नियंत्रण नहीं होना चाहिए। पिछले अक्टूबर में, अमेरिका ने एआई और स्वायत्तता के जिम्मेदार सैन्य उपयोग पर एक घोषणा भी जारी की, जिसे तब से 50 अन्य देशों ने समर्थन दिया है।
सैन्य एआई के जिम्मेदार उपयोग पर पहला शिखर सम्मेलन भी पिछले साल नीदरलैंड और कोरिया गणराज्य की सह-मेजबानी में आयोजित किया गया था। कुल मिलाकर, सैन्य एआई के उपयोग पर अंतरराष्ट्रीय नियम उच्च तकनीक, एआई-सक्षम युद्ध के लिए देशों और हथियार कंपनियों के उत्साह के साथ तालमेल रखने के लिए संघर्ष कर रहे हैं। एआई-सक्षम उत्पाद बनाने वाले कुछ इज़राइली स्टार्टअप कथित तौर पर गाजा में अपने उपयोग को विक्रय बिंदु बना रहे हैं। फिर भी गाजा में एआई सिस्टम के उपयोग पर रिपोर्टिंग से पता चलता है कि एआई गंभीर मानवीय नुकसान भले पहुंचा ले, लेकिन सटीक युद्ध के सपने को पूरा करने के मामले में बहुत पीछे है। एआई सुझावों को बिना किसी मानवीय जांच के स्वीकार करना भी संभावित लक्ष्यों के दायरे को बढ़ाता है, जिससे अधिक नुकसान होता है।
लैवेंडर और हब्सोरा पर रिपोर्ट हमें दिखाती है कि वर्तमान सैन्य एआई पहले से ही क्या करने में सक्षम है। सैन्य एआई के भविष्य के जोखिम और भी बढ़ सकते हैं। उदाहरण के लिए, चीनी सैन्य विश्लेषक चेन हंगहुई ने भविष्य की युद्धक्षेत्र विलक्षणता की कल्पना की है, जिसमें मशीनें निर्णय लेती हैं और इतनी तेज़ गति से कार्रवाई करती हैं कि कोई इंसान उनका अनुसरण नहीं कर सकता। इस परिदृश्य में, हम दर्शकों या हताहतों से अधिक कुछ नहीं रह गये हैं। इस साल की शुरुआत में प्रकाशित एक अध्ययन में एक और चेतावनी दी गई थी। अमेरिकी शोधकर्ताओं ने एक प्रयोग किया जिसमें जीपीटी-4 जैसे बड़े भाषा मॉडल ने युद्ध अभ्यास में राष्ट्रों की भूमिका निभाई। मॉडल लगभग अनिवार्य रूप से हथियारों की दौड़ में फंस गए और परमाणु हथियारों का उपयोग सहित अप्रत्याशित तरीकों से संघर्ष बढ़ गया। जिस तरह से दुनिया सैन्य एआई के वर्तमान उपयोग पर प्रतिक्रिया करती है, जैसा कि हम गाजा में देख रहे हैं भविष्य में प्रौद्योगिकी के विकास और उपयोग में एक नयी मिसाल कायम होने की आशंका है। (भाषा)
[ad_2]
Source link
