अल्पसंख्यकों की जिंदगी तबाह कर सकते हैं भेदभावपूर्ण एआई एल्गॉरिद्म

Artificial Intelligence
Creative Common

अब समय आ गया है कि हम कानून के समर्थन में एक ठोस सामाजिक आंदोलन के साथ नैतिक, राजनीतिक और सामाजिक मुद्दों का हल तलाशें। इस दिशा में पहला कदम खुद को इस बात से वाकिफ कराना है कि मौजूदा समय में क्या हो रहा है, क्योंकि इससे हमारा जीवन पहले जैसा नहीं रह जाएगा।

गलत डेटा न सिर्फ गलत नतीजे देता है, बल्कि समाज के विभिन्न तबकों, मसलन संवेदनशील महिलाओं और अल्पसंख्यकों के दमन का कारण भी साबित हो सकता है। नस्लभेद और लैंगिक भेदभाव के विभिन्न स्वरूपों तथा कृत्रिम बुद्धिमत्ता (एआई) के बीच संबंध पर आधारित मेरी नयी किताब कुछ यही तर्क देती है। समस्या बहुत गंभीर है। नौकरी संबंधी आवेदनों की जांच से लेकर विभिन्न मामलों में एल्गॉरिद्म की कार्य क्षमता में सुधार लाने के लिए उन्हें आमतौर पर इंटरनेट से लिया गया डेटा उपलब्ध कराया जाता है। लेकिन यह प्रशिक्षण डेटा कई तरह के भेदभाव से युक्त होता है, जो वास्तविक दुनिया में देखने को मिलते हैं। मिसाल के तौर पर, प्रशिक्षण डेटा के जरिये एल्गॉरिद्म इन निष्कर्ष पर पहुंच सकता है कि किसी विशेष कार्यक्षेत्र में कार्यरत ज्यादातर कर्मचारी पुरुष हैं और इसलिए वह उक्त क्षेत्र में नौकरी के लिए आवेदन करने वालों में पुरुषों आवेदकों को तरजीह दे सकता है।

दुनिया के उन समाज के इतिहास पर गौर फरमाने के बाद, जहां नस्लवाद ने सामाजिक और राजनीतिक व्यवस्था स्थापित करने में अहम भूमिका निभाई, उदाहरण के लिए यूरोप, उत्तरी अमेरिका और ऑस्ट्रेलिया में श्वेत पुरुषों को विशेषाधिकार प्रदान किए-यह सहज रूप से स्वीकार किया जा सकता है कि नस्लीय भेदभाव के अवशेष हमारी प्रौद्योगिकी में भी समाहित हैं। किताब के लिए किए गए अध्ययन में मैंने कुछ प्रमुख उदाहरणों का दस्तावेजीकरण किया है। मैंने पाया है कि आपराधिक न्याय प्रणाली में इस्तेमाल किए जाने वाले ‘फेस रिकग्निशन’ (चेहरों की पहचान करने वाले) सॉफ्टवेयर इस धारण पर काम करते हैं कि श्वेतों के मुकाबले अश्वेतों और एशियाई अल्पसंख्यकों के अपराध करने की दर ज्यादा होती है। इससे अमेरिका और अन्य देशों में अश्वेतों और एशियाई अल्पसंख्यकों को अक्सर झूठे मामलों में गिरफ्तारी का सामना करना पड़ता है। स्वास्थ्य देखभाल को लेकर भी गलत फैसले लिए जाने की बात सामने आई है।

एक अध्ययन में पाया गया कि अमेरिका में स्वास्थ्य प्रबंधन के लिए इस्तेमाल किए जाने वाले एल्गॉरिद्म ने श्वेत और अश्वेत मरीजों को समान स्वास्थ्य जोखिम स्कोर दिया, जबकि अश्वेत रोगी अक्सर श्वेत मरीजों के मुकाबले ज्यादा बीमार पड़ते हैं। इससे अतिरिक्त देखभाल के लिए चिह्नित किए जाने वाले अश्वेत मरीजों की संख्या आधी से भी ज्यादा घट जाती है। चूंकि, श्वेत रोगियों के समान स्वास्थ्य एवं देखभाल जरूरतें होने के बावजूद अश्वेत मरीजों के इलाज पर कम राशि खर्च की जाती है, इसलिए एल्गॉरिद्म गलत रूप से यह निष्कर्ष निकालता है कि अश्वेत मरीज अपने जैसे बीमार श्वेत रोगियों से बेहतर स्थिति में होते हैं। क्या मशीन झूठ नहीं बोलती? -ऐसे दमनकारी एल्गॉरिद्म का हमारे जीवन के लगभग हर क्षेत्र में दखल है।

एआई मामले को बदतर बना रहा है, क्योंकि यह हमें अनिवार्य रूप से निष्पक्ष बताकर बेचा जाता है। हमें बताया जाता है कि मशीन कभी झूठ नहीं बोलती। ऐसे में यह दलील धड़ल्ले से दी जाती है कि किसी को दोषी नहीं ठहराया जा सकता। यह छद्म-निष्पक्षता सिलिकॉन वैली के दिग्गजों द्वारा एआई को लेकर किए जाने वाले बड़े-बड़े दावों के केंद्र में है। इसे एलन मस्क, मार्क जुकरबर्ग और बिल गेट्स के भाषणों से आसानी से समझा जा सकता है, भले ही वे कभी-कभी हमें उन परियोजनाओं के बारे में आगाह करते हैं, जिनके लिए वे खुद जिम्मेदार हैं। इस संबंध में कई अनसुलझे कानूनी और नैतिक मुद्दे दांव पर हैं। मिसाल के तौर पर, गलतियों के लिए कौन जिम्मेदार है? क्या कोई व्यक्ति किसी एल्गॉरिद्म के खिलाफ उसे जातीय पृष्ठभूमि के आधार पर पैरोल देने से इनकार करने पर मुआवजे के लिए दावा कर सकता है, जैसे कि किचन में टोस्टर फटने के मामले में किया जा सकता है?

एआई तकनीक की अपारदर्शी प्रकृति कानूनी प्रणालियों के लिए गंभीर चुनौतियां खड़ी करती है, जो व्यक्तिगत या मानवीय जवाबदेही के इर्द-गिर्द केंद्रित हैं। बुनियादी मानवाधिकारों के समक्ष खतरा बढ़ा है, क्योंकि अपराधियों और भेदभाव के विभिन्न स्वरूपों के बीच मौजूद प्रौद्योगिकी के चक्रव्यूह से कानूनी जवाबदेही धुंधली हो गई है, जिससे दोष आसानी से मशीन पर मढ़ा जा सकता है। नैतिक और कानूनी खालीपन -एक ऐसी दुनिया, जहां सच-झूठ के बीच अंतर करना बेहद मुश्किल है, वहां हमारी निजता संबंधी जरूरतों को कानूनी संरक्षण मुहैया कराना जरूरी है। निजता का अधिकार और हमारे आभासी एवं वास्तविक जीवन से जुड़े डेटा के सहवर्ती स्वामित्व को एक मानवाधिकार के रूप में विधिबद्ध करने की जरूरत है, कम से कम उन वास्तविक अवसरों का लाभ उठाने के लिए, जो अच्छे एआई सॉफ्टवेयर मानव सुरक्षा के लिए प्रदान करते हैं।

लेकिन, प्रौद्योगिकी जगत हमसे काफी आगे है। प्रौद्योगिकी ने कानून को पीछे छोड़ दिया है। अपराधी इससे पैदा हुई नैतिक और कानूनी शून्यता का आसानी से फायदा उठाते हैं, क्योंकि एआई की यह नयी बहादुर दुनिया काफी हद तक अराजक है। अतीत की गलतियों पर आंखें मूंदकर, हम एक ऐसे अराजक दौर में प्रवेश कर चुके हैं, जहां रोजमर्रा के जीवन को प्रभावित करने वाली डिजिटल दुनिया की हिंसा पर नजर रखने के लिए कोई अधिकारी या तंत्र नहीं है। अब समय आ गया है कि हम कानून के समर्थन में एक ठोस सामाजिक आंदोलन के साथ नैतिक, राजनीतिक और सामाजिक मुद्दों का हल तलाशें। इस दिशा में पहला कदम खुद को इस बात से वाकिफ कराना है कि मौजूदा समय में क्या हो रहा है, क्योंकि इससे हमारा जीवन पहले जैसा नहीं रह जाएगा।

डिस्क्लेमर: प्रभासाक्षी ने इस ख़बर को संपादित नहीं किया है। यह ख़बर पीटीआई-भाषा की फीड से प्रकाशित की गयी है।


We're now on WhatsApp. Click to join.
All the updates here:

अन्य न्यूज़