NEW English Version

डीपफेक पर नियंत्रण के लिये सरकार की सख्ती जरूरी

ललित गर्ग
ललित गर्ग

डीपफेक व्यक्तिगत जीवन से आगे बढ़ कर अब राजनीतिक एवं वैश्विक सन्दर्भों के लिये एक गंभीर खतरा बनता जा रहा है। इक्कीसवीं सदी में कृत्रिम बौद्धिकता (आर्टिफ़िशियल इंटेलिजेंस या एआई) तकनीक के आगमन ने अगर सुविधाओं के नए रास्ते खोले हैं तो दुनियाभर में चिंताएं भी बढ़ा दी हैं। इस तकनीक का दुरुपयोग बड़े पैमाने पर शुरू हो चुका है, एआइ के जरिए डीपफेक वीडियो बनाकर सोशल मीडिया पर वायरल किए जा रहे हैं। गलत सूचनाएं, ऑडियो-वीडियो और तस्वीरें फैलाने वालों के हाथों में एआइ ने खतरनाक उस्तरा थमा दिया है, जो राष्ट्रीय सुरक्षा एवं राजनीतिक मुद्दों के साथ व्यक्तिगत छवि को घूमिल करने का यह हथियार अनेक चिन्ताओं को बढ़ा रहा है और बड़े संकट का सबब बनता जा रहा है। डीपफेक ने प्रधानमंत्री नरेंद्र मोदी को भी नहीं बक्शा है, उन्हें भी परेशान कर दिया है। उनका एक वीडियो इन दिनों यू-ट्यूब सहित सभी सोशल मीडिया प्लेटफॉर्म्स पर खूब चर्चित हो रहा है, इसमें उनको गरबा करते दिखाया गया है। ये पूरा वीडियो डीपफेक नाम की आर्टिफिशियल इंटेलिजेंस से तैयार किया गया है। इसी तरह देश एवं विदेश की अनेक हस्तियों के अनेक अश्लील एवं राजनीतिक डीपफेक व्यापक स्तर पर प्रसारित हो रहे हैं।


डीपफेक एक ऐसी तकनीक है जिसमे आप कृत्रिम बौद्धिकता की मदद एवं तकनीक से वीडियो, तस्वीरों और ऑडियो में हेरफेर कर सकते है। इस तकनीक की मदद से आप किसी दूसरे व्यक्ति की फ़ोटो या वीडियो पर किसी और का चेहरा लगाकर उसे पूरी तरह से बदल भी सकते है। एक रिपोर्ट के अनुसार इसका सबसे ज्यादा इस्तेमाल लगभग 96 प्रतिशत के आसपास अश्लील सामग्री बनाने में होता है। कुछ लोग इसका इस्तेमाल अपने मर चुके रिश्तेदारों की तस्वीरों को ऐनिमेट करने में भी करते हैं लेकिन अब डीपफेक कंटेंट का इस्तेमाल देश एवं विदेश की राजनीति में भी होने लगा है। राजनीतिक पार्टियाँ अपने चुनावी प्रचार में इस तकनीक का जमकर इस्तेमाल कर रही है। आम जनता को गुमराह करने एवं बड़ी हस्तियों की छवि एवं प्रतिष्ठा को धूमिल करने में अब इस तकनीक का व्यापक उपयोग होने लगा है। अनेक फिल्मी हस्तियों विशेषतः हीराइनों की अविश्वसनीय अश्लील एवं नग्न वीडियो बड़ी संख्या में आनलाइन आसानी से देखी जा सकती है। पब्लिक प्लैटफॉर्म्स पर मौजूद फोटोज की मदद से आसानी से डीपफेक विडियो बनाया जा सकता है। ऐसे वक्त में जब कोई नौसिखिया भी आसानी से फर्जी विडियो बनाकर सच और झूठ का फर्क मिटा सकता है, किसी भी विडियो पर झट से भरोसा ना करें क्योंकि डीपफेक विडियोज से घिरी वर्चुअल दुनिया में आंखों देखा सबकुछ हमेशा सच नहीं होता।


देश-विदेश में कई प्रतिष्ठित हस्तियां डीपफेक वीडियो का शिकार हो चुकी हैं। कई विदेशी हस्तियों के भी डीपफेक वीडियो सामने आ चुके हैं। यूक्रेन के राष्ट्रपति व्लादिमीर जेलेंस्की के डीपफेक वीडियो में तो वे रूस से लड़ रही अपनी सेना को सरेंडर करने के लिए कह रहे हैं। इजरायल-हमास युद्ध के भी कई डीपफेक वीडियो सोशल मीडिया पर वायरल हो चुके हैं। तभी प्रधानमंत्री नरेंद्र मोदी ने भी डीपफेक को देश के लिए सबसे बड़े खतरों में से एक बता इसके खिलाफ जनता को शिक्षित एवं सावधान करने पर जोर दिया है। भारत के लिये यह बड़ा खतरा इसलिये भी है कि भारत विविधता वाला देश है, यहां की जनता छोटी-छोटी बातों पर भावुक एवं भड़क जाती है। असली एवं नकली यानी डीपफेक का पता लगाने के लिये सतर्कता एवं सावधानी बरतने की अपेक्षा है। अगर वीडियो में आँख और नाक कहीं और जा रही है या वीडियो में पलक नहीं झपकाई गई है तो समझ जाइए यह डीपफेक कंटेंट है। कंटेंट की कलरिंग को भी देखकर पता लग सकता है कि तस्वीर या वीडियो में छेड़छाड़ हुई है। ढेरों चर्चित महिला हस्तियों एवं सिने कलाकारों के चेहरे डीपफेक टेक की मदद से पॉर्न वीडियोज पर लगाकर उन्हें ऑनलाइन शेयर किया जा रहा है। पॉप्युलर अमेरिकन अडल्ट साइट की ट्रेंडिंग टैग्स रिपोर्ट दिखाती है कि ऐसे वीडियोज पिछले कुछ महीने में तेजी से चर्चित हुए हैं और इन्हें व्यापक रूप में सर्च किया जा रहा है या देखा जा रहा है। इस टेक से किसी का फेक न्यूड वीडियो बनाकर उसे ब्लैकमेल भी किया जा सकता है और ऐसे मामले सामने आए भी हैं। एक्सपर्ट्स का मानना है कि जैसे-जैसे यह टेक्नॉलजी पॉप्युलर होगी, इसका गलत इस्तेमाल और ऐसे क्राइम भी बढ़ते जाएंगे।


कृत्रिम बुद्धि, कंप्यूटर विज्ञान की एक शाखा है जो मशीनों और सॉफ्टवेयर को बुद्धि के साथ विकसित करता है। 1955 में जॉन मैकार्थी ने इसको कृत्रिम बुद्धि का नाम दिया और उसके बारे में ‘यह विज्ञान और इंजीनियरिंग के बुद्धिमान मशीनें बनाने के’ के रूप परिभाषित किया। कृत्रिम बुद्धि अनुसंधान के लक्ष्यों में तर्क, ज्ञान की योजना, सीखने, धारणा और वस्तुओं में हेरफेर करने की क्षमता, आदि शामिल हैं। वर्तमान में, इस लक्ष्य तक पहुंचने के लिए सांख्यिकीय विधियों, कम्प्यूटेशनल बुद्धि और पारंपरिक खुफिया शामिल हैं। कृत्रिम बुद्धि का दावा इतना है कि मानव की बुद्धि का एक केंद्रीय संपत्ति एक मशीन द्वारा अनुकरण कर सकता है। बिजली के बल्ब और मूवी कैमरे के आविष्कारक थॉमस अल्वा एडिसन ने कहा था कि हर नई तकनीक सुविधाओं के साथ कुछ नकारात्मक पहलू भी लाती है। नित नई तकनीक के दौर से गुजर रही दुनिया में उनका कथन प्रासंगिक बना हुआ है। कृत्रिम बौद्धिकता तकनीक के आगमन ने अगर सुविधाओं के नए रास्ते खोले हैं तो दुनियाभर में चिंताएं भी बढ़ा दी हैं। इस तकनीक का दुरुपयोग बड़े पैमाने पर शुरू हो चुका है। किसी भी बात या घटना के सच होने का सबसे बड़ा सबूत उसके किसी विडियो को माना जाता रहा है लेकिन अब चीजें बदल गई हैं। आंखों देखी पर और किसी भी तरह के डिजिटल फोटो या विडियो पर भरोसा नहीं किया जा सकता। डीपफेक टेक्नॉलजी की मदद से ऐसे वीडियो बनाए जा सकते हैं कि बड़े-बड़े एक्सपर्ट्स भी गच्चा खा जाएं। सामान्य इंटरनेट यूजर शायद ही समझ पाए कि विडियो डीपफेक है और उसमें दिखने वाला शख्स कोई और है। यह टेक्नॉलजी वीडियोज के साथ बिल्कुल वैसे ही काम करती है, जैसा फोटो के लिए फोटोशॉप करता है।
सोशल मीडिया पर अभिनेत्री रश्मिका मंदाना का एक वीडियो वायरल हो रहा है, यह वीडियो फेक (डीपफेक) है। दरअसल इस वीडियो को लेकर मेगा स्टार अमिताभ बच्चन ने भी चिंता जताई है। इस डीपफेक वीडियो पर दिल्ली महिला आयोग ने स्वतः संज्ञान लेते हुए दिल्ली पुलिस में मामला दर्ज कराया है। इस मामले में एक गिरफ्तारी भी हो चुकी है। अब काजोल का भी डीपफेक सोशल मीडिया पर आ गया है। इसमें उनको कपड़े बदलते दिखाया गया है। इसमें ओरिजनल वीडियो ब्रिटिश सोशल मीडिया इन्फ्लुएंसर रोजी ब्रीन का है। उन्होंने ये वीडियो टिकटॉक पर ‘गेट रेडी विद मी’ सीरीज के लिए बनाया था। भारत में डीपफेक तकनीक का दुरुपयोग रोकने और फर्जी वीडियो की पहचान के लिए बेहतर प्रौद्योगिकी विकसित करने की जरूरत है। चिंता की बात है कि सोशल मीडिया मंचों और टेक कंपनियों ने डीपफेक वीडियो पर अंकुश के लिए कोई बड़ी पहल नहीं की है। लेकिन भारत सरकार इस मुद्दे पर इसकी घातकता को देखते हुए गंभीर है। सरकार इंटरनेट इस्तेमाल करने वाले सभी डिजिटल नागरिक की सुरक्षा और भरोसे को सुनिश्चित करने को लेकर प्रतिबद्ध हैं। सरकार ने सोशल मीडिया कंपनियों को गलत सूचनाओं, डीपफेक, अन्य अवांछित सामग्री की पहचान कर 36 घंटे के अंदर उन्हें हटाने के निर्देश दिए जा चुके हैं। सूचना प्रौद्योगिकी मंत्री अश्विनी वैष्णव ने साफ कह दिया कि सोशल मीडिया प्लेटफॉर्म अगर डीपफेक कंटेंट को हटाने के लिए पर्याप्त कदम नहीं उठाते हैं तो उन्हें मिलने वाले संरक्षण को वापस ले लिया जाएगा। कई देशों की सरकारें डीपफेक के नियमन की तैयारी में हैं। कुछ अमरीकी राज्यों में बगैर सहमति डीपफेक बनाने को अपराध घोषित किया जा चुका है। यूरोपीय देशों में भी कानून बनाने की तैयारी चल रही है। सिर्फ कानून बनाने से समस्या से पार पाना संदिग्ध है। जरूरत ऐसे तंत्र की है, जो डीपफेक की सतत निगरानी रख अवांछित सामग्री फैलाने के सभी रास्ते बंद रखे।

Book Showcase

Best Selling Books

Ikigai: The Japanese secret to a long and happy life

By Héctor García, Francesc Miralles

₹318

Book 2 Cover

Why I am an Atheist and Other Works

By Bhagat Singh

₹104

Truth without apology

By Acharya Prashant

₹240

Until Love Sets Us Apart

By Aditya Nighhot

₹176

Translate »