रिपोर्टर बने

भरी संसद में महिला सांसद को क्यों दिखानी पड़ी खुद की नंगी फोटो, कहा- मुझे इसे AI से तैयार करने में 5 मिनट भी नहीं लगे: जानिए क्या है डीपफेक, क्यों इस पर छिड़ी है बहस?

न्यूजीलैंड की संसद में एक सांसद लौरा मैकक्लुरे ने अपनी फर्जी नग्न डीपफेक तस्वीर इसलिए दिखाई, जिससे लोगों को जानकारी मिल सके, कि AI-जेनरेटेड पोर्नोग्राफी का इस्तेमाल करना कितना गंभीर साबित हो सकता है। महिला सांसद ने बताया कि यह तस्वीर उन्होंने केवल 5 मिनट में ऑनलाइन से बनाई थी। सासंद लौरा मैकक्लुरे जानती थीं कि यह असली नहीं है, फिर भी यह इतनी वास्तविक लग रही थी कि उन्हें डर लगा।

मैकक्लुरे का मानना है कि डीपफेक पोर्न असली नग्न तस्वीरों जितना ही हानिकारक है और इसके दुरुपयोग को रोकने के लिए कानून में बदलाव की आवश्यकता है। मैकक्लुरे ने युवा पीढ़ी को इस तकनीक के खतरों के बारे में जागरूक करने पर जोर दिया, क्योंकि इसका इस्तेमाल अक्सर ब्लैकमेल और उत्पीड़न के लिए किया जाता है, जिसके गंभीर परिणाम हो सकते हैं।

मैकक्लुरे ने एक उदाहरण भी दिया। इसमें ऑस्ट्रेलिया में हाल के मामलों और न्यूजीलैंड में एक 13 साल की लड़की द्वारा आत्महत्या के प्रयास से पता चलता है। साइबर सुरक्षा विशेषज्ञ सुसान मैकलिन भी मानती हैं कि इस समस्या का समाधान केवल तकनीकी नियंत्रण में नहीं है, बल्कि सामाजिक जागरूकता और शिक्षा में भी है।

‘डीपफेक’ क्या है और ये कैसे काम करता है?

डीपफेक एक AI-आधारित तकनीक है जो किसी एक व्यक्ति के चेहरे को दूसरे के चेहरे से बदलकर फर्जी वीडियो, फोटो और ऑडियो बनाती है। यह इतनी प्रभावी हो सकती है कि असली और नकली में अंतर करना मुश्किल हो जाता है। इसका सबसे अधिक उपयोग फर्जी पोर्न वीडियो बनाने के लिए किया जाता है।

एनकोडर और डीकोडर: इसमें उन दो चेहरों की ढेर सारी तस्वीरें और वीडियो एक AI प्रोग्राम ‘एनकोडर’ में डाले जाते हैं, जिनके चेहरों को आपस में बदलना है। एनकोडर इन चेहरों में समानताएं ढूंढता है और उन्हें मिलाकर एक नई कंप्रेस्ड इमेज बनाता है। फिर ‘डीकोडर’ उस कंप्रेस्ड इमेज को इस तरह से फिर से बनाता है कि यह असली लगे, यानी यदि मूल व्यक्ति रो रहा है, तो बदला हुआ चेहरा भी रोता हुआ दिखाई देगा।

जनरेटिव एड्वर्सियल नेटवर्क (GAN): इसमें एक AI को “गड़बड़” (यानी, बदली हुई) तस्वीर और एक “सही” (असली) तस्वीर दी जाती है। AI इन दोनों के कोड को समझकर उन्हें आपस में मिलाता है और एक नई, विश्वसनीय दिखने वाली इमेज या वीडियो बनाता है।

क्या इसे पहचानना नामुमकिन है?

यह बात इस निर्भर करती है कि डीपफेक के जरिए बनाई गई फोटो या वीडियो कितने कौशल से बनाए गए हैं। हालाँकि, इन वीडियो को ध्यान से देखने पर बोलते समय होंठों का मूवमेंट, हाथ-पैर का चलना और चेहरे पर आने वाले अन्य भाव को देख कर पता लगाया जा सकता है कि वीडियो असली है नकली।

समस्या यह है कि अब तकनीक इतनी ज्यादा मजबूत होती जा रही है कि सामान्य व्यक्तियों की पकड़ में कई वीडियो नहीं आने वाली। इनको बहुत ही उच्च क्षमता के कंप्यूटर और आधुनिक तकनीक से लम्बी मेहनत के बाद बनाया जाता है। डीपफेक की समस्या से लड़ने के लिए लगातार बड़े बड़े विश्वविद्यालयों समेत कई कंपनियां रिसर्च कर रही हैं। इसकी कमियों को ढूँढने का लगातार प्रयास किया जाता रहा है जिससे लोग जन सके कि कोई वीडियो फर्जी है नहीं।

  • Related Posts

    पेपरलेस होगी जनगणना, जाति के आँकड़े भी किए जाएँगे इकट्ठा, घर से लेकर रोजगार तक हर डिटेल होगी दर्ज: जानिए कौन से नए सवाल पूछे जाएँगे, कितनी लंबी होगी प्रक्रिया

    भारत के इतिहास में पहली बार 2027 की जनगणना डिजिटल तरीके से होने जा रही है। केन्द्र सरकार ने इसके लिए नोटिफिकेशन 16 जून 2025 को जारी किया गया ।…

    ममता सरकार की नई OBC आरक्षण लिस्ट पर हाई कोर्ट ने लगाई रोक, 76 जातियाँ की थी शामिल: भाजपा ने बताया- इनमें 67 मुस्लिमों की

    कलकत्ता हाई कोर्ट ने पश्चिम बंगाल में अन्य पिछड़ा वर्ग (OBC) की नई आरक्षण सूची जारी करने पर रोक लगा दी है। यह नई सूची राज्य की सत्तारूढ़ ममता बनर्जी…

    Leave a Reply

    Your email address will not be published. Required fields are marked *

    Social Media Auto Publish Powered By : XYZScripts.com