Loading Now

डीपफेक: एक ‘डिजिटल शैतान’ जो बदल रहा है सच्चाई की तस्वीर

डीपफेक तकनीक से जुड़े संकट, भारत सरकार की 9 सदस्यीय समिति, और गूगल, मेटा व एक्स (ट्विटर) की नीतियों का विश्लेषण।

डीपफेक का बढ़ता संकट और सरकार की कार्रवाई

भारत में डीपफेक तकनीक का दुरुपयोग चिंता का विषय बन गया है। पिछले वर्ष, सेलिब्रिटीज और आम नागरिकों को निशाना बनाने वाले हजारों नकली वीडियो वायरल हुए, जिनके कारण पीड़ितों की सामाजिक छवि और मानसिक स्वास्थ्य पर गंभीर प्रभाव पड़ा। इन्हीं मामलों की जांच के लिए दिल्ली उच्च न्यायालय के निर्देश पर केंद्र सरकार ने नवंबर 2024 में एक 9 सदस्यीय समिति गठित की। इस समिति ने गूगल, मेटा और एक्स (पूर्व ट्विटर) जैसे टेक दिग्गजों से डीपफेक रोकथाम की उनकी रणनीतियों का ब्योरा मांगा।

गूगल की AI-आधारित नीतियाँ

गूगल ने समिति को बताया कि वे नवंबर 2023 से ही डीपफेक के खिलाफ सख्त कार्रवाई कर रहे हैं। उनकी नीति के अनुसार, AI का उपयोग करके हानिकारक सामग्री को स्वचालित रूप से पहचाना और हटाया जाता है। साथ ही, उन्होंने यूजर्स के लिए एक विशेष प्रक्रिया शुरू की है, जहाँ कोई भी व्यक्ति यह दावा कर सकता है कि उसकी छवि का गलत इस्तेमाल किया गया है। गूगल के प्रतिनिधियों ने जोर देकर कहा कि वे क्रिएटर्स से AI से बनी सामग्री को “सिंथेटिक” लेबल लगाने के लिए प्रोत्साहित करते हैं।

मेटा का सेलिब्रिटी-केंद्रित दृष्टिकोण

मेटा ने अपनी AI लेबलिंग नीति अप्रैल 2024 में लागू की, जिसके तहत यूजर्स को AI से जेनरेटेड कंटेंट को चिह्नित करना अनिवार्य है। हालाँकि, कंपनी ने माना कि उनकी नीतियाँ अभी सामान्य हैं और सेलिब्रिटीज के डिजिटल व्यक्तित्व की सुरक्षा पर विशेष काम चल रहा है। उदाहरण के लिए, अगर किसी सेलिब्रिटी का चेहरा डीपफेक वीडियो में इस्तेमाल किया जाता है, तो मेटा उसे प्राथमिकता के आधार पर हटाने का प्रयास करेगा। परंतु, आलोचकों का कहना है कि यह प्रक्रिया अभी धीमी और अपर्याप्त है।

एक्स (ट्विटर) का संतुलित रुख

एक्स ने समिति को स्पष्ट किया कि वे सभी AI सामग्री को स्वतः हटाने के बजाय “बेहद भ्रामक और हानिकारक” कंटेंट पर फोकस करते हैं। उनकी नीति के अनुसार, ऐसी सामग्री को हटा दिया जाता है, जबकि अन्य मामलों में केवल चेतावनी लेबल लगाया जाता है। एक्स के प्रतिनिधि ने तर्क दिया कि AI का उपयोग रचनात्मक कार्यों (जैसे मेम्स या डिजिटल आर्ट) के लिए भी होता है, इसलिए पूरी तरह प्रतिबंध लगाना उचित नहीं। हालाँकि, यह दृष्टिकोण साइबर एक्सपर्ट्स को अस्पष्ट और जोखिम भरा लगता है।

समिति की प्राथमिकताएँ और चुनौतियाँ

MeitY द्वारा गठित समिति का मुख्य लक्ष्य डीपफेक से निपटने के लिए एक संतुलित नियामक ढांचा तैयार करना है। इसमें AI-जनरेटेड कंटेंट का अनिवार्य खुलासा, मानकीकृत लेबलिंग और शिकायत निवारण तंत्र शामिल हैं। समिति के एक सदस्य ने बताया कि अगर इन नियमों में देरी हुई, तो 2025 तक डीपफेक राष्ट्रीय सुरक्षा के लिए खतरा बन सकते हैं। अगले 3 महीनों में यह समिति पीड़ितों, टेक कंपनियों और कानूनी विशेषज्ञों के साथ चर्चा करके अपनी अंतिम रिपोर्ट पेश करेगी।

आम जनता के लिए सुरक्षा सुझाव

डीपफेक के बढ़ते खतरे के बीच, साइबर सुरक्षा एजेंसियाँ लोगों को सतर्क रहने की सलाह देती हैं। इसमें ऑनलाइन शेयर की गई फोटो/वीडियो को फैक्ट-चेक करना, AI डिटेक्शन टूल्स का उपयोग और डिजिटल फुटप्रिंट को सीमित करना शामिल है। साथ ही, अगर कोई व्यक्ति स्वयं पीड़ित है, तो वह साइबर क्राइम हेल्पलाइन (1930) या प्लेटफॉर्म की रिपोर्टिंग सुविधा का उपयोग कर सकता है।

निष्कर्ष – टेक्नोलॉजी और जिम्मेदारी का सही मेल

डीपफेक की समस्या का समाधान सिर्फ टेक कंपनियों या सरकार पर नहीं छोड़ा जा सकता। इसमें हर नागरिक की सजगता भी महत्वपूर्ण है। जहाँ गूगल और मेटा जैसी कंपनियों को अपनी नीतियाँ और पारदर्शी बनाने की जरूरत है, वहीं उपयोगकर्ताओं को भी ऑनलाइन कंटेंट को गंभीरता से वेरिफाई करने की आदत डालनी होगी। अंततः, तकनीक का उपयोग तभी सुरक्षित है, जब उसके साथ जिम्मेदारी का हाथ थाम लिया जाए।

Spread the love

Post Comment

You May Have Missed