एआई और आपराधिक न्याय: मानवाधिकार के लिए खतरा?

हम इंडस्ट्री 4.0 के युग में जी रहे हैं। एआई तेजी से जीवन के हर क्षेत्र में घुस रहा है। भारत सरकार भी शासन में दक्षता चाहती है। आपराधिक न्याय प्रणाली में एआई का उपयोग बढ़ रहा है। पर यह तकनीक गंभीर खतरे पैदा कर सकती है। खासकर हाशिए पर पड़े लोगों के मानवाधिकार के लिए।
यह चिंता का बड़ा विषय बन गया है। प्रौद्योगिकी को नियंत्रित करने वाला “कौन” है यह महत्वपूर्ण प्रश्न है। मानवाधिकार सुरक्षा इसी पर निर्भर करती है।
क्यों एआई पूर्वाग्रही हो सकता है?
एआई तटस्थ नहीं है। यह मानव निर्मित सिस्टम पर काम करता है। मौजूदा सामाजिक पूर्वाग्रह डेटा में शामिल रहते हैं। जाति, लिंग, धर्म जैसे कारक प्रभाव डालते हैं। SST सिद्धांत यही बताता है। प्रौद्योगिकी का सामाजिक आकार होता है। विकास का वातावरण उसे प्रभावित करता है।
सुरक्षा प्रणालियों में पक्षपात
उदाहरण के लिए, कार सुरक्षा प्रणालियां देखें। महिलाओं के घायल होने का खतरा अधिक है। क्यों? डिजाइन पुरुष शरीर को ध्यान में रखकर हुआ। चेहरा पहचानने वाले सिस्टम भी पक्षपाती हैं। गोरी त्वचा की तुलना में सांवली त्वचा में गलतियां ज्यादा। यह साबित हो चुका है।
यूएन वूमन जैसे संगठन भी चेतावनी देते हैं। एआई रूढ़िवादिता को मजबूत कर सकता है। स्वास्थ्य सेवा और भर्ती जैसे क्षेत्रों में यह स्पष्ट है। मानवाधिकार हनन का यह बड़ा कारण बन सकता है।
भारत का डिजिटल विभाजन: डेटा की खाई
भारत में एआई के लिए बड़ी चुनौती है डेटा। मौजूदा डेटाबेस समाज की विविधता नहीं दिखाते। डिजिटल विभाजन गहरा और वास्तविक है। सीएसडीएस की रिपोर्ट इसकी पुष्टि करती है। आबादी का बड़ा हिस्सा ऑफलाइन है। महिलाएं, दलित, आदिवासी, अल्पसंख्यक, ग्रामीण पीछे हैं।
क्या कहती है अंतर्राष्ट्रीय रिपोर्टें ?
ऑक्सफैम की रिपोर्ट 2022 चौंकाने वाली है। महिलाएं पुरुषों से 33% कम इंटरनेट इस्तेमाल करती हैं। ग्रामीण इलाकों में केवल 31% लोग ऑनलाइन हैं। शहरी क्षेत्रों में यह आंकड़ा 67% है। जातिगत असमानता और भी गंभीर है। उच्च जातियों का डिजिटल स्पेस पर दबदबा है।
दलितों और आदिवासियों का प्रतिनिधित्व बहुत कम। नतीजा? एआई को जो डेटा मिलता है वह पक्षपाती है। यह डेटा देश की वास्तविक तस्वीर नहीं दिखाता। इससे बने एआई टूल असमानता बढ़ाएंगे। यह हाशिए के समूहों के लिए मानवाधिकार संकट है।
इसे भी पढ़ें: भारत की ‘प्रभावी’ आतंकवाद विरोधी रणनीति!
आपराधिक न्याय में एआई: खतरा क्यों?
आपराधिक न्याय में एआई का उपयोग खतरनाक हो सकता है। एनसीआरबी के आंकड़े चिंता बढ़ाते हैं। भारतीय जेलों में दो-तिहाई कैदी हाशिए के समूहों से हैं। दलित, आदिवासी या ओबीसी पृष्ठभूमि प्रमुख है। 2015 के आंकड़े और भी डरावने हैं। 55% से ज्यादा विचाराधीन कैदी इन्हीं समूहों से हैं।
पूर्वाग्रह और भेदभाव के शिकार
मुस्लिम पृष्ठभूमि के भी कैदी अधिक हैं। शिक्षा का स्तर भी बहुत निम्न पाया गया। अब सोचिए, पक्षपाती डेटा पर चलने वाला एआई क्या करेगा? यह मौजूदा भेदभाव को और बढ़ाएगा। मानवाधिकार का गंभीर उल्लंघन होगा।
हाल के उदाहरणों ने खतरे की घंटी बजा दी है। पंजाब-हरियाणा हाईकोर्ट ने एक मामले में चैटजीपीटी का इस्तेमाल किया। जमानत खारिज करने के लिए इसका हवाला दिया गया। यह एक खतरनाक मिसाल कायम हुई है। अमेज़न का एआई भर्ती टूल भी याद रखें। 2014 में इसे हटाना पड़ा। कारण?
महिला उम्मीदवारों के खिलाफ पूर्वाग्रह पाया गया। यह साबित करता है कि एआई पुराने अन्याय को दोहरा सकता है। विशेषज्ञों का तर्क अक्सर यह होता है। विकसित देशों में एआई सिस्टम अधिक उन्नत हैं। विकासशील देशों में संसाधनों की कमी है। पर विकसित देशों में भी हालात बेहतर नहीं।
इसे भी पढ़ें: मुंबई में सड़क दुर्घटना का भयावह सच!
वैश्विक चेतावनी: पूर्वाग्रह के सबूत
अमेरिका जैसे देशों में भी एआई नाकाम साबित हुआ है। COMPAS एल्गोरिदम का उदाहरण प्रसिद्ध है। इसका उपयोग आपराधिक जोखिम आकलन में होता था। पाया गया कि यह अश्वेत प्रतिवादियों के साथ भेदभाव करता है। गोरे प्रतिवादियों की तुलना में उन्हें उच्च जोखिम स्कोर देता था।
एल्गोरिदम के विवादस्पद उदहारण
शिकागो का अपराध भविष्यवाणी एल्गोरिदम भी विवादास्पद रहा। NAACP ने इस पर गंभीर चिंता जताई थी। अश्वेत समुदायों के खिलाफ पूर्वाग्रह स्पष्ट था। ये उदाहरण एक बात साफ करते हैं। एआई तकनीक का दुरुपयोग आसानी से हो सकता है। हाशिए पर पड़े समूह सबसे ज्यादा प्रभावित होते हैं। उनके मानवाधिकार सीधे खतरे में पड़ जाते हैं।
इसे भी पढ़ें: बोइंग 787 ड्रीमलाइनर दुर्घटना: सवाल और चिंताएँ !
भारत में AI की चिंताजनक तैनाती
भारत सरकार तेजी से एआई उपकरण तैनात कर रही है। आपराधिक न्याय प्रणाली में यह स्पष्ट दिखता है। ट्राइनेट और ई-प्रिसन जैसे सिस्टम चल रहे हैं। राष्ट्रीय स्वचालित चेहरा पहचान प्रणाली (AFRS) भी है। ये संदिख्धों की पहचान में मदद के लिए बने हैं। पर बड़ी समस्या है कानूनी ढांचे की कमी।
कानूनी प्रावधानों से मुक्त एआई
भारत में एआई के उपयोग को विनियमित करने वाला कोई कानून नहीं है। यह अनियंत्रित तैनाती खतरनाक है। सिस्टम में पहले से मौजूद पूर्वाग्रह और बढ़ेंगे। जिन समुदायों की आवाज पहले से कमजोर है। उन पर प्रतिकूल प्रभाव पड़ेगा। मानवाधिकार सुरक्षा और कठिन हो जाएगी।
समाधान की राह: समावेशी एआई की जरूरत
इस चुनौती का समाधान संभव है। लेकिन जागरूक प्रयासों की आवश्यकता है। भारत की विविधता को ध्यान में रखना होगा। गहरी असमानताओं को स्वीकार करना होगा। सबसे पहले, विविध और प्रतिनिधि डेटासेट जरूरी है। हाशिए के समूहों को डेटा संग्रह में शामिल करें। दूसरा, सख्त कानूनी और नैतिक ढांचा बनाना होगा।
एआई ऑडिटिंग से जुड़े सवाल
एआई तैनाती के लिए स्पष्ट दिशा-निर्देश चाहिए। पारदर्शिता और जवाबदेही अनिवार्य हो। तीसरा, एआई ऑडिटिंग नियमित करनी होगी। स्वतंत्र संस्थाएं पूर्वाग्रह की जांच करें। चौथा, विविध पृष्ठभूमि के विशेषज्ञों को शामिल करें। एआई डेवलपमेंट टीमों में यह जरूरी है। एआई को सशक्तिकरण का उपकरण बनाना है। मानवाधिकार केंद्र में होने चाहिए।
इसे भी पढ़ें: मुंबई ट्रेन दुर्घटना: रेल हादसों पर लापरवाह सरकार
नैतिक एआई की जरूरत जो न्याय को बढ़ावा दे
एआई में निस्संदेह बड़ी संभावनाएं हैं। आपराधिक न्याय प्रणाली को बेहतर बना सकता है। लेकिन जोखिमों को नजरअंदाज नहीं किया जा सकता। खासकर भारत जैसे विविध और असमान समाज में। पक्षपाती डेटा और डिजिटल विभाजन गंभीर समस्याएं हैं। ये हाशिए पर पड़े लोगों को और पीछे धकेल सकते हैं। उनके मानवाधिकार गंभीर खतरे में पड़ सकते हैं। अतीत से सबक लेना चाहिए।
प्रौद्योगिकी के लाभ सब तक पहुंचने चाहिए। केवल कुछ हाथों में केंद्रित नहीं होने चाहिए। समावेशी और नैतिक एआई ही एकमात्र रास्ता है। सरकार, उद्योग और नागरिक समाज को मिलकर काम करना होगा। सुनिश्चित करना होगा कि एआई न्याय को बढ़ावा दे। मानवाधिकार की रक्षा करे। किसी का बहिष्कार न करे। तभी तकनीक वास्तव में प्रगति लाएगी।
Post Comment