डीपफेक: एक ‘डिजिटल शैतान’ जो बदल रहा है सच्चाई की तस्वीर

डीपफेक का बढ़ता संकट और सरकार की कार्रवाई
भारत में डीपफेक तकनीक का दुरुपयोग चिंता का विषय बन गया है। पिछले वर्ष, सेलिब्रिटीज और आम नागरिकों को निशाना बनाने वाले हजारों नकली वीडियो वायरल हुए, जिनके कारण पीड़ितों की सामाजिक छवि और मानसिक स्वास्थ्य पर गंभीर प्रभाव पड़ा। इन्हीं मामलों की जांच के लिए दिल्ली उच्च न्यायालय के निर्देश पर केंद्र सरकार ने नवंबर 2024 में एक 9 सदस्यीय समिति गठित की। इस समिति ने गूगल, मेटा और एक्स (पूर्व ट्विटर) जैसे टेक दिग्गजों से डीपफेक रोकथाम की उनकी रणनीतियों का ब्योरा मांगा।
गूगल की AI-आधारित नीतियाँ
गूगल ने समिति को बताया कि वे नवंबर 2023 से ही डीपफेक के खिलाफ सख्त कार्रवाई कर रहे हैं। उनकी नीति के अनुसार, AI का उपयोग करके हानिकारक सामग्री को स्वचालित रूप से पहचाना और हटाया जाता है। साथ ही, उन्होंने यूजर्स के लिए एक विशेष प्रक्रिया शुरू की है, जहाँ कोई भी व्यक्ति यह दावा कर सकता है कि उसकी छवि का गलत इस्तेमाल किया गया है। गूगल के प्रतिनिधियों ने जोर देकर कहा कि वे क्रिएटर्स से AI से बनी सामग्री को “सिंथेटिक” लेबल लगाने के लिए प्रोत्साहित करते हैं।
मेटा का सेलिब्रिटी-केंद्रित दृष्टिकोण
मेटा ने अपनी AI लेबलिंग नीति अप्रैल 2024 में लागू की, जिसके तहत यूजर्स को AI से जेनरेटेड कंटेंट को चिह्नित करना अनिवार्य है। हालाँकि, कंपनी ने माना कि उनकी नीतियाँ अभी सामान्य हैं और सेलिब्रिटीज के डिजिटल व्यक्तित्व की सुरक्षा पर विशेष काम चल रहा है। उदाहरण के लिए, अगर किसी सेलिब्रिटी का चेहरा डीपफेक वीडियो में इस्तेमाल किया जाता है, तो मेटा उसे प्राथमिकता के आधार पर हटाने का प्रयास करेगा। परंतु, आलोचकों का कहना है कि यह प्रक्रिया अभी धीमी और अपर्याप्त है।
एक्स (ट्विटर) का संतुलित रुख
एक्स ने समिति को स्पष्ट किया कि वे सभी AI सामग्री को स्वतः हटाने के बजाय “बेहद भ्रामक और हानिकारक” कंटेंट पर फोकस करते हैं। उनकी नीति के अनुसार, ऐसी सामग्री को हटा दिया जाता है, जबकि अन्य मामलों में केवल चेतावनी लेबल लगाया जाता है। एक्स के प्रतिनिधि ने तर्क दिया कि AI का उपयोग रचनात्मक कार्यों (जैसे मेम्स या डिजिटल आर्ट) के लिए भी होता है, इसलिए पूरी तरह प्रतिबंध लगाना उचित नहीं। हालाँकि, यह दृष्टिकोण साइबर एक्सपर्ट्स को अस्पष्ट और जोखिम भरा लगता है।
समिति की प्राथमिकताएँ और चुनौतियाँ
MeitY द्वारा गठित समिति का मुख्य लक्ष्य डीपफेक से निपटने के लिए एक संतुलित नियामक ढांचा तैयार करना है। इसमें AI-जनरेटेड कंटेंट का अनिवार्य खुलासा, मानकीकृत लेबलिंग और शिकायत निवारण तंत्र शामिल हैं। समिति के एक सदस्य ने बताया कि अगर इन नियमों में देरी हुई, तो 2025 तक डीपफेक राष्ट्रीय सुरक्षा के लिए खतरा बन सकते हैं। अगले 3 महीनों में यह समिति पीड़ितों, टेक कंपनियों और कानूनी विशेषज्ञों के साथ चर्चा करके अपनी अंतिम रिपोर्ट पेश करेगी।
आम जनता के लिए सुरक्षा सुझाव
डीपफेक के बढ़ते खतरे के बीच, साइबर सुरक्षा एजेंसियाँ लोगों को सतर्क रहने की सलाह देती हैं। इसमें ऑनलाइन शेयर की गई फोटो/वीडियो को फैक्ट-चेक करना, AI डिटेक्शन टूल्स का उपयोग और डिजिटल फुटप्रिंट को सीमित करना शामिल है। साथ ही, अगर कोई व्यक्ति स्वयं पीड़ित है, तो वह साइबर क्राइम हेल्पलाइन (1930) या प्लेटफॉर्म की रिपोर्टिंग सुविधा का उपयोग कर सकता है।
निष्कर्ष – टेक्नोलॉजी और जिम्मेदारी का सही मेल
डीपफेक की समस्या का समाधान सिर्फ टेक कंपनियों या सरकार पर नहीं छोड़ा जा सकता। इसमें हर नागरिक की सजगता भी महत्वपूर्ण है। जहाँ गूगल और मेटा जैसी कंपनियों को अपनी नीतियाँ और पारदर्शी बनाने की जरूरत है, वहीं उपयोगकर्ताओं को भी ऑनलाइन कंटेंट को गंभीरता से वेरिफाई करने की आदत डालनी होगी। अंततः, तकनीक का उपयोग तभी सुरक्षित है, जब उसके साथ जिम्मेदारी का हाथ थाम लिया जाए।
Post Comment