PM Modi On DeepFake Videos: डीपफेक, डीपफेक, डीपफेक! पिछले कुछ दिनों से इंटरनेट, अखबारों और टीवी न्यूज की दुनिया में यह शब्द सुर्खियों में है। हममें से कई लोगों ने पहली बार शायद DeepFake शब्द सुना होगा जबकि कई पहले से इस शब्द से वाकिफ़ रहे होंगे। एक्ट्रेस रश्मिका मंदाना से लेकर कटरीना कैफ और काजोल से लेकर सचिन तेंदुलकर की बेटी सारा तेंदुलकर तक। खासतौर पर सेलिब्रिटीज डीपफेक टेक्नोलॉजी का शिकार हो रहे हैं। अब प्रधानमंत्री नरेंद्र मोदी ( Prime Minister Narendra Modi) ने भी डीप फेक को लेकर चिंता जाहिर कर दी है। पीएम मोदी ने डीप फेक को लेकर मीडिया से लोगों में जागरुकता फैलाने की बात भी कही है।
भारतीय जनता पार्टी के दिवाली मिलन समारोह में पीएम मोदी ने कहा कि AI (artificial intelligence) का इस्तेमाल करके डीपफेक बनाना चिंताजनक है। पीएम ने कहा, ‘डीपफेक भारत के सामने मौजूद सबसे बड़े खतरों में से एक है, इससे अराजकता पैदा हो सकती है।’ उन्होंने मीडिया से आग्रह किया कि आर्टिफिशियल इंटेलिजेंस और डीप फेक को लेकर लोगों को जागरुक किया जाए। पीएम ने कहा कि कार्यक्रमों के जरिए लोगों को एजुकेट करें कि डीपफेक है क्या, कितना बड़ा संकट पैदा कर सकता है और इसके प्रभाव क्या हो सकता हैं, उसको उदाहरणों के साथ लोगों को बताया जाए।
पीएम ने यह भी बताया कि हाल ही में उन्होंने एक वीडियो देखा जिसमें उन्हें गरबा गाते हुए दिखाया गया था। मुझे खुद लगा कि यह क्या बना दिया, यह चिंता का विषय है। जबकि यह वीडियो पूरी तरह से फेक था।
बता दें कि हाल ही में डीपफेक वीडियो को लेकर सोशल मीडिया पर बहस छिड़ गई थी। इसकी शुरुआत तब हुई जब मशहूर एक्ट्रेस रश्मिका मंदाना (Rashmika Mandanna) का एक डीपफेक वीडियो इंटरनेट पर तेजी से वायरल हुआ। इस वीडियो में रश्मिका का चेहरा किसी दूसरी महिला की बॉडी पर मॉर्फ करके लगाया हुआ था। जबकि ओरिजिनल वीडियो में दिख रही महिला ब्रिटिश-इंडियन और सोशल मीडिया इन्फ्लुएंसर ज़ारा पटेल थी। ओरिजिनल वीडियो में जारा को एक लिफ्ट से बाहर निकलते हुए ब्लैक आउटफिट में देखा जा सकता था। लेकिन वायरल वीडियो ज़ारा के चेहरे को आर्टिफिशियल इंटेलिजेंस के जरिए एडिट करके रश्मिका मंदाना के चेहरे से बदल दिया गया था।
रश्मिका मंदाना का डीपफेक वीडियो वायरल होने के बाद टेक्नोलॉजी के इस्तेमाल को लेकर कड़े नियम लागू करने की मांग हुई। रश्मिका के वीडियो पर केंद्रीय इलेक्ट्रॉनिक्स एंड टेक्नोलॉजी मंत्री राजीव चंद्रशेखर ने भी प्रतिक्रिया जताई और सोशल मीडिया प्लेटफॉर्म X पर कहा कि डीप फेक (Deep Fake) गलत सूचना का लेटेस्ट और सबसे खतरनाक व नुकसान पहुंचाने वाला तरीका है। सोशल मीडिया प्लेटफॉर्म्स को इससे निपटने की जरूरत है। उन्होंने सोशल मीडिया प्लेटफॉर्म को आईटी नियमों की याद दिलाते हुए इस तरह के वीडियो को हटाने और कड़ी कार्रवाई करने की बात भी कही।
केंद्रीय मंत्री ने कहा था कि Facebook, X (Twitter), Instagram और YouTube जैसे सोशल मीडिया प्लेटफॉर्म की यह जिम्मेदारी है कि अगर कोई यूजर या सरकार इन डीप फेक वीडियो की शिकायत करे तो 36 घंटे के अंदर ऐसी जानकारी हटाई जाए। अगर कोई प्लेटफॉर्म इसका पालन नहीं करता है तो नियम नंबर 7 लागू होगा और IPC की धाराओं के तहत पीड़ित व्यक्ति द्वारा उस प्लेटफॉर्म को कोर्ट ले जाया जा सकता है।
सोशल मीडिया पर रश्मिका का वीडियो वायरल होने के बाद बॉलीवुड एक्टर अमिताभ बच्चन ने भी कड़ी कानूनी कार्रवाई की मांग की थी। इसके बाद टाइगर-3 (Tiger-3) एक्ट्रेस कटरीना कैफ, सचिन तेंदुलकर की बेटी सारा तेंदुलकर और क्रिकेटर शुभमन गिल का मॉर्फ्ड फोटो और अभिनेत्री काजोल का भी एक डीप फेक वीडियो वायरल हुआ था।
डीप फेक एक सिंथेडिक मीडियम है जिसका इस्तेमाल फोटोज, वीडियो और ऑडियो फाइल्स को एडिट करने के लिए किया जाता है। आर्टिफिशियल इंटेलिजेंस की मदद से इन फाइल को एडिट किया जाता है। मशीन लर्निंग मॉडल के जरिए इन Deep Fake Video को क्रिएट किया जाता है और तस्वीरों व वीडियो को बदलने के लिए न्यूरल नेटवर्क का इस्तेमाल होता है। Artificial Intelligence के इस तरीके को ही Deep Learning भी कहा जाता है।
जैसा कि नाम से ज़ाहिर है डीप फेक यानी किसी भी फेक चीज को मशीन लर्निंग के जरिए इतना एडिट किया जाता है कि वह एकदम असली जैसा लगता है। सामान्य तरीके से देखने पर इन डीपफेक फोटो, वीडियो व ऑडियो फाइल की पहचान करना मुश्किल होता है और ये बिल्कुल असली जैसे लगते हैं।
आमतौर पर किसी डीप फेक फोटो को एडिट करना आसान होता है जबकि वीडियो को डीप फेक बनाने में थोड़ी मेहनत लगती है। लेकिन आर्टिफिशियल इंटेलिजेंस की इस दुनिया में, अब जबकि सबकुछ ऑनलाइन मौजूद है फेक वीडियो भी धड़ल्ले से बनाए जा रहे हैं। सरल शब्दों में कहें तो डीप फेक में किसी A व्यक्ति के चेहरे को B व्यक्ति के चेहरे से बदल दिया जाता है। यानी नकली तस्वीर यूजर्स को असली जैसी लगती है जबकि होती वो नकली ही है। बस यही है Deep Fake।
यह टेक्नोलॉजी कई फील्ड जैसे मूवी के लिए विजुअल इफेक्ट में, किसी सर्विस में अवतार क्रिएट करने के लिए Augmented Reality में, सोशल मीडिया एक्टिविटी, एजुकेशन आदि में इस्तेमाल की जाती है। लेकिन अब आसान इंटरनेट और टेक्नोलॉजी की मदद से डीप फेक का गलत इस्तेमाल तेजी से बढ़ रहा है और सरकारों से लेकर पीएम तक इसे लेकर चिंतित हैं।
आंखों में देखकर (Look at the eyes)
2018 में पब्लिश हुई रिसर्च में दावा किया गया था कि डीपफेक फेस आम इंसानों की तरह ब्लिंक नहीं करते। हालांकि, मंदाना के वीडियो में उन्हें दो बार ब्लिंक करते देखा जा सकता है। लेकिन गौर से देखने पर पता चलता है कि आंखें अलग तरह से दिख रही हैं। इसके अलावा करीब से देखने पर खुलाा होता है कि आंखों में काफी-कुछ अलग है।
होठों पर ध्यान से गौर करना (Read the lips)
अक्सर खराब क्वॉलिटी के डीपफेक को खराब लिप-सिंकिंग के चलते पहचानना आसान होता है। इनमें ऑडियो के हिसाब से लिप्स मूव होते हैं। DeepFake वीडियो में कुछ अंतर साफ देखा जा सकता है।
त्वचा (Skin)
वीडियो में आप असली व्यक्ति की स्किन टोन को फेक से बदला जा सकता है। आमतौर पर डीपफेक वीडियो में स्किन पर कोई दाग-धब्बे दिखते हैं और यहां तक कि स्किन टोन पैची भी हो सकती है।
बाल और दांत (The hair, teeth)
आमतौर पर डीप फेक सॉफ्टवेयर के लिए बालों से जुड़ी महीन डिटेल को रेंडर करना मुश्किल हो जाता है। अगर आप बारीकी से बालों के फ्रिंज देखें तो आप वीडियो को डिकोड कर सकते हैं। कई बार, दांतों से भी डीपफेक वीडियो की पहचान कर सकते हैं क्योंकि वीडियो में ये नेचुरल नहीं दिखते।
ज्वेलरी को ध्यान से देखें
अगर डीपफेक वीडियो में कोई व्यक्ति ज्वेलरी पहना है तो इस बात का चांस कई गुना ज्यादा होता है कि लाइटिंग इफेक्ट के चलते ये ठीक ना दिखें।