Israel Hamas War | इजरायली की सेना ने गाजा में हजारों लोगों पर बम बरसाने के लिए ली AI की मदद

[ad_1]

इजरायली सेना ( फोटो क्रेडिट- @IDF )

Loading

मेलबर्न: इजरायली सेना ने एक नई कृत्रिम बुद्धिमत्ता (AI) प्रणाली का उपयोग करके गाजा में संभावित हवाई हमलों के लिए हजारों मानव लक्ष्यों की सूची तैयार की। पिछले सप्ताह प्रकाशित एक रिपोर्ट में यह जानकारी दी गई। रिपोर्ट गैर-लाभकारी आउटलेट +972 मैगज़ीन से आई है, जो इज़रायली और फ़लस्तीनी पत्रकारों द्वारा चलाया जाता है। रिपोर्ट में इज़रायली ख़ुफ़िया विभाग के छह अज्ञात स्रोतों के साक्षात्कार का हवाला दिया गया है। सूत्रों का दावा है कि सिस्टम, जिसे लैवेंडर के नाम से जाना जाता है, का उपयोग अन्य एआई सिस्टम के साथ संदिग्ध आतंकवादियों को लक्षित करने और उनकी हत्या करने के लिए किया गया था, जिनमें से कई अपने ही घरों में थे जिससे बड़ी संख्या में नागरिक हताहत हुए।

गार्डियन की एक अन्य रिपोर्ट के अनुसार, +972 रिपोर्ट के समान स्रोतों के आधार पर, एक खुफिया अधिकारी ने कहा कि सिस्टम ने बड़ी संख्या में हमलों को अंजाम देना आसान बना दिया, क्योंकि मशीन ने इसे ठंडे दिमाग से किया। जैसा कि दुनिया भर की सेनाएं एआई का उपयोग करने की होड़ में हैं, ये रिपोर्टें हमें दिखाती हैं कि यह कैसा दिख सकता है सीमित सटीकता और कम मानवीय निरीक्षण के साथ मशीन-स्पीड युद्ध, जिसमें नागरिकों को भारी नुकसान होगा। इज़रायली रक्षा बल इन रिपोर्टों में कई दावों का खंडन करता है। गार्जियन को दिए एक बयान में, उसने कहा कि वह आतंकवादी गुर्गों की पहचान करने वाली कृत्रिम बुद्धिमत्ता प्रणाली का उपयोग नहीं करता है।

इसमें कहा गया है कि लैवेंडर एक एआई सिस्टम नहीं है बल्कि सिर्फ एक डेटाबेस है जिसका उद्देश्य खुफिया स्रोतों को क्रॉस-रेफरेंस करना है। लेकिन 2021 में, येरूसलम पोस्ट ने एक खुफिया अधिकारी की रिपोर्ट में कहा कि इज़राइल ने अपना पहला एआई युद्ध जीता है। डेटा का निरीक्षण करने और लक्ष्य तैयार करने के लिए वह कई मशीन लर्निंग सिस्टम का उपयोग कर रहा है। उसी वर्ष द ह्यूमन-मशीन टीम नामक एक पुस्तक, जिसमें एआई-संचालित युद्ध के दृष्टिकोण को रेखांकित किया गया था, एक लेखक द्वारा छद्म नाम के तहत प्रकाशित की गई थी, जिसे हाल ही में एक प्रमुख इजरायली गुप्त खुफिया इकाई का प्रमुख बताया गया था। पिछले साल, एक अन्य +972 रिपोर्ट में कहा गया था कि इज़राइल संभावित आतंकवादी इमारतों और बमबारी सुविधाओं की पहचान करने के लिए हब्सोरा नामक एक एआई सिस्टम का भी उपयोग करता है।

रिपोर्ट के अनुसार, हब्सोरा लगभग स्वचालित रूप से लक्ष्य उत्पन्न करता है, और एक पूर्व खुफिया अधिकारी ने इसे सामूहिक हत्या का कारखाना बताया। हालिया +972 रिपोर्ट में एक तीसरी प्रणाली का भी दावा किया गया है, जिसे व्हेयर इज डैडी? कहा जाता है, जो लैवेंडर द्वारा पहचाने गए लक्ष्यों की निगरानी करती है और जब वे अपने परिवार के पास घर लौटते हैं तो सेना को सचेत करती है। कई देश सैन्य बढ़त की तलाश में एल्गोरिदम की ओर रुख कर रहे हैं। अमेरिकी सेना का प्रोजेक्ट मावेन एआई लक्ष्यीकरण की आपूर्ति करता है जिसका उपयोग मध्य पूर्व और यूक्रेन में किया गया है।

चीन भी डेटा का विश्लेषण करने, लक्ष्यों का चयन करने और निर्णय लेने में सहायता के लिए एआई सिस्टम विकसित करने की ओर अग्रसर है। सैन्य एआई के समर्थकों का तर्क है कि यह तेजी से निर्णय लेने, अधिक सटीकता और युद्ध में हताहतों की संख्या को कम करने में मदद करेगा। वैसे पिछले साल, मिडिल ईस्ट आई ने बताया कि एक इजरायली खुफिया कार्यालय ने कहा कि गाजा में प्रत्येक एआई-जनित लक्ष्य की मानव समीक्षा करना बिल्कुल भी संभव नहीं है। एक अन्य सूत्र ने +972 को बताया कि वे व्यक्तिगत रूप से प्रत्येक लक्ष्य के लिए 20 सेकंड लगाएंगे जो केवल अनुमोदन से ज्यादा और कुछ नहीं होगा। नवीनतम रिपोर्ट पर इजरायली रक्षा बल की प्रतिक्रिया में कहा गया है, विश्लेषकों को स्वतंत्र परीक्षा आयोजित करनी चाहिए, जिसमें वे सत्यापित करें कि पहचाने गए लक्ष्य अंतरराष्ट्रीय कानून के अनुसार प्रासंगिक परिभाषाओं को पूरा करते हैं।

सटीकता के लिए, नवीनतम +972 रिपोर्ट में दावा किया गया है कि लैवेंडर पहचान और क्रॉस-चेकिंग की प्रक्रिया को स्वचालित करता है ताकि यह सुनिश्चित किया जा सके कि संभावित लक्ष्य हमास का एक वरिष्ठ सैन्य व्यक्ति है। रिपोर्ट के अनुसार, लैवेंडर ने निम्न-रैंकिंग कर्मियों और साक्ष्य के कमजोर मानकों को शामिल करने के लिए लक्ष्यीकरण मानदंडों को ढीला कर दिया, और लगभग 10 प्रतिशत मामलों में त्रुटियां कीं। रिपोर्ट में यह भी दावा किया गया है कि एक इजरायली खुफिया अधिकारी ने बताया है कि व्हेयर इज डैडी? से जानकारी मिलने पर प्रणाली, लक्ष्यों पर बिना किसी हिचकिचाहट के, पहले विकल्प के तौर पर” उनके घरों पर बमबारी करेगी, जिससे नागरिक हताहत होंगे। इज़रायली सेना का कहना है कि वह हजारों लोगों को उनके घरों में मारने की किसी भी नीति के दावे को सिरे से खारिज करती है।

जैसे-जैसे एआई का सैन्य उपयोग आम होता जा रहा है, नैतिक और कानूनी चिंताओं पर बहुत कम ध्यान दिया गया है। सैन्य एआई के बारे में अभी तक कोई स्पष्ट, सार्वभौमिक रूप से स्वीकृत या कानूनी रूप से बाध्यकारी नियम नहीं हैं। संयुक्त राष्ट्र दस वर्षों से अधिक समय से घातक स्वायत्त हथियार प्रणालियों पर चर्चा कर रहा है। ये उपकरण ऐसे हैं जो मानव इनपुट के बिना लक्ष्य साधने और फायरिंग करने का निर्णय ले सकते हैं, जिन्हें कभी-कभी हत्यारे रोबोट के रूप में जाना जाता है। संयुक्त राष्ट्र महासभा ने यह सुनिश्चित करने के लिए एक नए मसौदा प्रस्ताव के पक्ष में मतदान किया कि एल्गोरिदम को हत्या से जुड़े निर्णयों पर पूर्ण नियंत्रण नहीं होना चाहिए। पिछले अक्टूबर में, अमेरिका ने एआई और स्वायत्तता के जिम्मेदार सैन्य उपयोग पर एक घोषणा भी जारी की, जिसे तब से 50 अन्य देशों ने समर्थन दिया है।

सैन्य एआई के जिम्मेदार उपयोग पर पहला शिखर सम्मेलन भी पिछले साल नीदरलैंड और कोरिया गणराज्य की सह-मेजबानी में आयोजित किया गया था। कुल मिलाकर, सैन्य एआई के उपयोग पर अंतरराष्ट्रीय नियम उच्च तकनीक, एआई-सक्षम युद्ध के लिए देशों और हथियार कंपनियों के उत्साह के साथ तालमेल रखने के लिए संघर्ष कर रहे हैं। एआई-सक्षम उत्पाद बनाने वाले कुछ इज़राइली स्टार्टअप कथित तौर पर गाजा में अपने उपयोग को विक्रय बिंदु बना रहे हैं। फिर भी गाजा में एआई सिस्टम के उपयोग पर रिपोर्टिंग से पता चलता है कि एआई गंभीर मानवीय नुकसान भले पहुंचा ले, लेकिन सटीक युद्ध के सपने को पूरा करने के मामले में बहुत पीछे है। एआई सुझावों को बिना किसी मानवीय जांच के स्वीकार करना भी संभावित लक्ष्यों के दायरे को बढ़ाता है, जिससे अधिक नुकसान होता है।

लैवेंडर और हब्सोरा पर रिपोर्ट हमें दिखाती है कि वर्तमान सैन्य एआई पहले से ही क्या करने में सक्षम है। सैन्य एआई के भविष्य के जोखिम और भी बढ़ सकते हैं। उदाहरण के लिए, चीनी सैन्य विश्लेषक चेन हंगहुई ने भविष्य की युद्धक्षेत्र विलक्षणता की कल्पना की है, जिसमें मशीनें निर्णय लेती हैं और इतनी तेज़ गति से कार्रवाई करती हैं कि कोई इंसान उनका अनुसरण नहीं कर सकता। इस परिदृश्य में, हम दर्शकों या हताहतों से अधिक कुछ नहीं रह गये हैं। इस साल की शुरुआत में प्रकाशित एक अध्ययन में एक और चेतावनी दी गई थी। अमेरिकी शोधकर्ताओं ने एक प्रयोग किया जिसमें जीपीटी-4 जैसे बड़े भाषा मॉडल ने युद्ध अभ्यास में राष्ट्रों की भूमिका निभाई। मॉडल लगभग अनिवार्य रूप से हथियारों की दौड़ में फंस गए और परमाणु हथियारों का उपयोग सहित अप्रत्याशित तरीकों से संघर्ष बढ़ गया। जिस तरह से दुनिया सैन्य एआई के वर्तमान उपयोग पर प्रतिक्रिया करती है, जैसा कि हम गाजा में देख रहे हैं भविष्य में प्रौद्योगिकी के विकास और उपयोग में एक नयी मिसाल कायम होने की आशंका है। (भाषा)



[ad_2]

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *