deepfake video of actress nora fatehi | नोरा फतेही का डीपफेक Video वायरल: फैशन ब्रांड के एडवरटाइजिंग में चेहरा और आवाज, नोरा बोलीं- ‘FAKE, This is not me’

मुंबई44 मिनट पहले

  • कॉपी लिंक

रश्मिका मंदाना, कैटरीना कैफ, काजोल, आलिया भट्ट और प्रियंका चोपड़ा के बाद नोरा फतेही का डीपफेक सामने आया है। इसमें नोरा कपड़े के ब्रांड का एडवरटाइजमेंट करती दिखाई दे रही हैं। नोरा ने अपनी इंस्टाग्राम स्टोरी पर इस डीपफेक वीडियो का स्क्रीनशॉट पोस्ट किया है। उसमें लिखा ‘FAKE, Shoked!!! This is not me’.

क्या है इस डीपफेक वीडियो में
नोरा का जो डीपफेक वाला वीडियो सामने आया है उसमें नजर आ रहा है कि वे फैशन ब्रांड की एंड ऑफ सीजन सेल का एडवरटाइजमेंट कर रही है। वीडियो बहुत ही परफेक्शन के साथ बनाया गया है। इसमें नोरा की आवाज, चेहरा और उनकी बॉडी लैंग्वेज को इस तरह से एडिट किया गया है कि देखने वाले को लगे कि यह नोरा ही हैं।

एनडीटीवी की खबर के मुताबिक, जिस फैशन ब्रांड का इस डीपफेक वीडियो में नाम नजर आ रहा है उसने किसी भी तरह के स्कैम की बात नकारी है। कंपनी ने कहा है कि यह अवेयरनेस फैलने का के लिए कंपनी के कैंपेंन का हिस्सा है।

दिल्ली पुलिस ने ईमानी नवीन को गिरफ्तार किया है।

दिल्ली पुलिस ने ईमानी नवीन को गिरफ्तार किया है।

गिरफ्तार किया गया रश्मिका का डीपफेक वीडियो बनाने वाला

एक्ट्रेस रश्मिका मंदाना के डीपफेक वीडियो के मामले में दिल्ली पुलिस की IFSO (Intelligence Fusion and Strategic Operations Unit) साइबर क्राइम यूनिट ने आंध्र प्रदेश से 24 साल के इंजीनियर ईमानी नवीन को गिरफ्तार किया है। इस मामले में दिल्ली पुलिस ने 10 नवंबर 2023 को इस केस की FIR दर्ज की थी।

पुलिस के मुताबिक आरोपी ईमानी नवीन रश्मिका मंदाना का फैन पेज चलाता था। लेकिन डेढ़ साल रश्मिका मंदाना का फैन पेज चलाने के बाद भी उस पर सिर्फ 90 हजार फॉलोअर थे, जो वीडियो अपलोड करने के बाद 1 लाख 8 हजार हो गए। ये रश्मिका का फैन है। इसका डीप फेक वीडियो बनाने का मकसद एक्ट्रेस को हानि पहुंचाना नहीं था।

आरोपी मेटा मोनिटाइजेशन के जरिए पैसे कमाना चाहता था और अपने फॉलोअर बढ़ाना चाहता था। इसलिए उसने यूट्यूब के चैनल से वीडियो एडिटिंग का कोर्स किया और रश्मिका मंदाना का डीपफेक बनाया। पूरी खबर पढ़ें

खुद का डीपफेक वीडियो सामने आने के बाद रश्मिका ने यह पोस्ट शेयर किया था।

खुद का डीपफेक वीडियो सामने आने के बाद रश्मिका ने यह पोस्ट शेयर किया था।

पीएम मोदी, सचिन तेंडुलकर भी हुए डीपफेक के शिकार
प्रधानमंत्री नरेंद्र मोदी भी डीपफेक पर चिंता जता चुके हैं। उनका एक डीपफेक वीडियो आया था। वहीं हाल ही में पूर्व क्रिकेटर सचिन तेंदुलकर का एक डीप फेक वीडियो वायरल हुआ था। इसमें उन्हें ‘स्काईवर्ड एविएटर क्वेस्ट’ गेमिंग ऐप को प्रमोट करते दिखाया गया था। सचिन ने कहा था- यह वीडियो नकली है और धोखा देने के लिए बनाया गया है।

पिछले साल नवंबर में एक्ट्रेस रश्मिका मंदाना का एक डीपफेक वीडियो सोशल मीडिया पर वायरल हआ था, जिसमें AI टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे पर रश्मिका का चेहरा मोर्फ किया गया था। सोशल मीडिया पर हजारों लोगों ने रश्मिका के इस फेक वीडियो को असली समझ लिया क्योंकि उसमें चेहरे के एक्सप्रेशन बिल्कुल रियल लग रहे थे।

खुद का डीपफेक वीडियो सामने आने के बाद सचिन तेंदुलकर ने यह पोस्ट शेयर किया था।

खुद का डीपफेक वीडियो सामने आने के बाद सचिन तेंदुलकर ने यह पोस्ट शेयर किया था।

डीपफेक पर नकेल कसने के लिए IT मंत्रालय के नए नियम किए तैयार
डीपफेक रोकने के लिए केंद्रीय IT मंत्रालय ने 17 जनवरी को नए नियम तैयार के बारे में जानकारी दी। इसके मुताबिक, जो सोशल मीडिया प्लेटफार्म नए नियमों का उल्लंघन करेगा, उसका भारत में कारोबार रोक दिया जाएगा। मंत्रालय की सोशल मीडिया प्लेटफॉर्म्स और अन्य स्टेकहोल्डर्स के बीच हुई दो बार मीटिंग हुई है। इसमें तय हुआ कि सोशल मीडिया प्लेटफार्म डीपफेक कंटेंट को AI के जरिए फिल्टर करने का काम करेंगे। डीपफेक कंटेंट डालने वालों पर IPC की धाराओं और IT एक्ट के तहत केस दर्ज होंगे। पूर खबर पढ़ें…

डीपफेक होता क्या है और कैसे बनाया जाता है?

डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे।

किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है।

इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।

AI और साइबर एक्सपर्ट पुनीत पांडे बताते हैं कि अब रेडी टु यूज टेक्नोलॉजी और पैकेज उपलब्ध है। अब इसे कोई भी उपयोग कर सकता है। वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है। इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है।

डीपफेक वीडियो बनाने का तरीका…

  • सबसे पहले ऐसी फोटो या वीडियो की पहचान की जाती है, जिसमें नकली चेहरा और आवाज फिट की जा सके। तमाम चेहरे जुटाने को इनकोडर एल्गोरिदम और चेहरा बदलने को फेस स्वैप कहते हैं।
  • दूसरा प्रोग्राम डीकोडर एल्गोरिदम होता है। फेस स्वैप होने के बाद एक्सप्रेशन डाला जाता है। फिर ऑडियो ऐड किया जाता है और वीडियो के एक-एक फ्रेम पर काम किया जाता है, ताकि वीडियो असली लगे। 24 फ्रेम यानी 24 इमेजेस से मिलकर एक सेकेंड का वीडियो बनता है।
  • आर्टिफिशियल इंटेलिजेंस ने ये काम और आसान कर दिया है। पब्लिक डोमेन में कुछ ऐप हैं जिन पर केवल फोटो डालना होता है और संबंधित का फेक वीडियो या फोटो तैयार हो जाता है। इसके उदाहरण कई सोशल वीडियो चैट ऐप हैं जिनमें आप अपना चेहरा छिपाने के लिए लाइव मास्क लगा लेते हैं या कभी क्राउन पहन लेते हैं।
  • जानकार कहते हैं कि जो परफेक्ट AI तकनीक से वीडियो बने होते हैं उन्हें देखकर कोई भी मात खा सकता है। जब तक फेक वीडियो की सच्चाई पता चलती है, विक्टिम की इमेज डैमेज हो चुकी होती है। अमेरिका में हुई एक रिसर्च के अनुसार आमतौर पर 96% AI बेस्ड डीपफेक वीडियो का उपयोग पोर्न बनाने में ही होता है।

यह खबर भी पढ़ें…

भास्कर एक्सप्लेनर- डीपफेक क्या है, जिससे रश्मिका का वीडियो बना: AI के लिए महज कुछ सेकेंड का काम; इसके शिकार लोग क्या करें

ऊपर एक ही फ्रेम में दो तस्वीरें दिख रही हैं। पहली इंस्टाग्राम सेलिब्रिटी जारा पटेल के असली वीडियो की है और दूसरी डीपफेक टेक्नोलॉजी से रश्मिका मंदाना का चेहरा लगाकर बनाए गए फेक वीडियो की। सोशल मीडिया पर हजारों लोगों ने रश्मिका के इस फेक वीडियो को असली समझ लिया क्योंकि उसमें दिख रहे एक्सप्रेशन बिल्कुल रियल लगते हैं। पूरी खबर पढ़ें…

खबरें और भी हैं…

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *