एआई का इस्तेमाल कब न करें , यह जानना भी जरूरी
एआई का इस्तेमाल कब न करें , यह जानना भी जरूरी
(सैम इलिंगवर्द, एडिनबरा नेपियर यूनिवर्सिटी)
एडिनबरा, 19 फरवरी (द कन्वरसेशन) कृत्रिम बुद्धिमत्ता (एआई) के प्रशिक्षण में आमतौर पर इस बात पर जोर दिया जाता है कि बेहतर परिणाम कैसे हासिल किए जाएं—बेहतर प्रॉम्प्ट कैसे लिखें, प्रश्न को कैसे परिष्कृत करें और सामग्री को अधिक तेजी से कैसे तैयार करें।
इस दृष्टिकोण के संदर्भ में एआई को केवल उत्पादकता बढ़ाने वाले औजार के रूप में देखा जाता है और सफलता को गति से मापा जाता है। हालांकि, विशेषज्ञों का कहना है कि यह सोच अधूरी है।
आलोचनात्मक एआई साक्षरता अलग प्रश्न उठाती है। इसमें “मैं इसका उपयोग कैसे करूं?” के बजाय “क्या मुझे इसका उपयोग करना भी चाहिए?” और “इसे तेज कैसे बनाऊं?” के बजाय “इस प्रक्रिया में मैं क्या खो रहा हूं?” के बारे में जानना बेहद जरूरी है।
एआई प्रणालियां उन पूर्वाग्रहों को साथ लेकर चलती हैं, जिन्हें अधिकतर उपयोगकर्ता देख नहीं पाते। वर्ष 2025 में ‘ब्रिटिश न्यूज़पेपर आर्काइव’ पर किए गए एक अध्ययन में पाया गया कि डिजिटल व्यवस्था वाले विक्टोरियनकालीन अखबार वास्तव में प्रकाशित सामग्री के 20 प्रतिशत से भी कम का प्रतिनिधित्व करते हैं। उपलब्ध नमूना राजनीतिक प्रकाशनों की ओर झुकाव रखता है और स्वतंत्र आवाज़ों को कम दर्शाता है। ऐसे में यदि कोई शोधकर्ता इसी आधार पर विक्टोरियन समाज के बारे में निष्कर्ष निकाले, तो वह अभिलेखागार में निहित विकृतियों को दोहरा सकता है। यही सिद्धांत आज के एआई उपकरणों को संचालित करने वाले डेटा पर भी लागू होता है।
साहित्य के शोधार्थी लंबे समय से मानते रहे हैं कि पाठ केवल वास्तविकता को प्रतिबिंबित नहीं करते, बल्कि उसे निर्मित भी करते हैं। 1870 का कोई समाचार लेख अतीत की खिड़की नहीं, बल्कि संपादकों, विज्ञापनदाताओं और मालिकों द्वारा गढ़ा गया प्रस्तुतीकरण होता है। एआई के परिणाम भी इसी तरह प्रशिक्षण डेटा के पैटर्न का परिष्कृत रूप होते हैं, जो विशेष विश्वदृष्टि और व्यावसायिक हितों को दर्शाते हैं। मानविकी हमें यह पूछना सिखाती है कि किसकी आवाज़ मौजूद है और किसकी नहीं है।
वर्ष 2023 में ‘द लैन्सेट ग्लोबल हेल्थ’ में प्रकाशित शोध में यह स्पष्ट हुआ। शोधकर्ताओं ने एआई से ऐसी छवियां बनवाने का प्रयास किया जिनमें अश्वेत अफ्रीकी डॉक्टर श्वेत बच्चों का इलाज करते दिख रहे हों। 300 से अधिक चित्र तैयार करने के बावजूद एआई इस उलटबांसी को प्रस्तुत नहीं कर सका और हर बार मरीजों को अश्वेत के रूप में दर्शाया। यह दर्शाता है कि प्रणाली प्रचलित छवियों को इतनी गहराई से आत्मसात कर चुकी थी कि वह वैकल्पिक कल्पना नहीं कर सकी।
विशेषज्ञों के अनुसार, समस्या केवल शैलीगत संकेतों तक सीमित नहीं है, बल्कि उन परिणामों तक है जो बिना जांच के पूर्वाग्रहों को आगे बढ़ाते हैं।
दार्शनिक माइका लॉट और विलियम हैसलबरगर का तर्क है कि एआई मित्र नहीं हो सकता, क्योंकि मित्रता के लिए दूसरे के हित की परवाह आवश्यक है। एआई के पास स्वयं का कोई आंतरिक हित नहीं होता; वह उपयोगकर्ता की सेवा के लिए बना है।
कंपनियां जब एआई को साथी के रूप में प्रस्तुत करती हैं, तो वे मानवीय संबंधों की जटिलता के बिना सहानुभूति का आभास देती हैं। यह संबंध एकतरफा और व्यावसायिक लेन-देन भर रह जाता है।
शिक्षकों, पत्रकारों और स्वास्थ्यकर्मियों के लिए यह जरूरी है कि वे तय करें कि एआई कब सीखने या निर्णय लेने में सहायक है और कब यह मानवीय विवेक का स्थान ले रहा है। 19वीं सदी के लुडाइट आंदोलन का उदाहरण देते हुए विशेषज्ञ कहते हैं कि वे प्रौद्योगिकी के विरोधी नहीं थे, बल्कि उसके अंधाधुंध तरीके से अपनाने के सामाजिक प्रभावों के प्रति सचेत थे।
आज एआई की मदद से लिए जा रहे निर्णय भर्ती, स्वास्थ्य, शिक्षा और न्याय जैसे क्षेत्रों को प्रभावित कर रहे हैं। यदि इन प्रणालियों का आलोचनात्मक मूल्यांकन नहीं किया गया, तो निर्णय की जिम्मेदारी ऐसे एल्गोरिद्म को सौंप दी जाएगी जिनकी सीमाएं अदृश्य हैं।
आखिरकार, आलोचनात्मक एआई साक्षरता केवल बेहतर प्रॉम्प्ट लिखने या कार्यप्रवाह को अनुकूलित करने के बारे में नहीं है, बल्कि यह जानने के बारे में है कि एआई का उपयोग कब करना है और कब उसे बिल्कुल अलग रखना है।
(द कन्वरसेशन) मनीषा रंजन
रंजन

Facebook


