एआई का इस्तेमाल कब न करें , यह जानना भी जरूरी

एआई का इस्तेमाल कब न करें , यह जानना भी जरूरी

एआई का इस्तेमाल कब न करें , यह जानना भी जरूरी
Modified Date: February 19, 2026 / 03:16 pm IST
Published Date: February 19, 2026 3:16 pm IST

(सैम इलिंगवर्द, एडिनबरा नेपियर यूनिवर्सिटी)

एडिनबरा, 19 फरवरी (द कन्वरसेशन) कृत्रिम बुद्धिमत्ता (एआई) के प्रशिक्षण में आमतौर पर इस बात पर जोर दिया जाता है कि बेहतर परिणाम कैसे हासिल किए जाएं—बेहतर प्रॉम्प्ट कैसे लिखें, प्रश्न को कैसे परिष्कृत करें और सामग्री को अधिक तेजी से कैसे तैयार करें।

इस दृष्टिकोण के संदर्भ में एआई को केवल उत्पादकता बढ़ाने वाले औजार के रूप में देखा जाता है और सफलता को गति से मापा जाता है। हालांकि, विशेषज्ञों का कहना है कि यह सोच अधूरी है।

आलोचनात्मक एआई साक्षरता अलग प्रश्न उठाती है। इसमें “मैं इसका उपयोग कैसे करूं?” के बजाय “क्या मुझे इसका उपयोग करना भी चाहिए?” और “इसे तेज कैसे बनाऊं?” के बजाय “इस प्रक्रिया में मैं क्या खो रहा हूं?” के बारे में जानना बेहद जरूरी है।

एआई प्रणालियां उन पूर्वाग्रहों को साथ लेकर चलती हैं, जिन्हें अधिकतर उपयोगकर्ता देख नहीं पाते। वर्ष 2025 में ‘ब्रिटिश न्यूज़पेपर आर्काइव’ पर किए गए एक अध्ययन में पाया गया कि डिजिटल व्यवस्था वाले विक्टोरियनकालीन अखबार वास्तव में प्रकाशित सामग्री के 20 प्रतिशत से भी कम का प्रतिनिधित्व करते हैं। उपलब्ध नमूना राजनीतिक प्रकाशनों की ओर झुकाव रखता है और स्वतंत्र आवाज़ों को कम दर्शाता है। ऐसे में यदि कोई शोधकर्ता इसी आधार पर विक्टोरियन समाज के बारे में निष्कर्ष निकाले, तो वह अभिलेखागार में निहित विकृतियों को दोहरा सकता है। यही सिद्धांत आज के एआई उपकरणों को संचालित करने वाले डेटा पर भी लागू होता है।

साहित्य के शोधार्थी लंबे समय से मानते रहे हैं कि पाठ केवल वास्तविकता को प्रतिबिंबित नहीं करते, बल्कि उसे निर्मित भी करते हैं। 1870 का कोई समाचार लेख अतीत की खिड़की नहीं, बल्कि संपादकों, विज्ञापनदाताओं और मालिकों द्वारा गढ़ा गया प्रस्तुतीकरण होता है। एआई के परिणाम भी इसी तरह प्रशिक्षण डेटा के पैटर्न का परिष्कृत रूप होते हैं, जो विशेष विश्वदृष्टि और व्यावसायिक हितों को दर्शाते हैं। मानविकी हमें यह पूछना सिखाती है कि किसकी आवाज़ मौजूद है और किसकी नहीं है।

वर्ष 2023 में ‘द लैन्सेट ग्लोबल हेल्थ’ में प्रकाशित शोध में यह स्पष्ट हुआ। शोधकर्ताओं ने एआई से ऐसी छवियां बनवाने का प्रयास किया जिनमें अश्वेत अफ्रीकी डॉक्टर श्वेत बच्चों का इलाज करते दिख रहे हों। 300 से अधिक चित्र तैयार करने के बावजूद एआई इस उलटबांसी को प्रस्तुत नहीं कर सका और हर बार मरीजों को अश्वेत के रूप में दर्शाया। यह दर्शाता है कि प्रणाली प्रचलित छवियों को इतनी गहराई से आत्मसात कर चुकी थी कि वह वैकल्पिक कल्पना नहीं कर सकी।

विशेषज्ञों के अनुसार, समस्या केवल शैलीगत संकेतों तक सीमित नहीं है, बल्कि उन परिणामों तक है जो बिना जांच के पूर्वाग्रहों को आगे बढ़ाते हैं।

दार्शनिक माइका लॉट और विलियम हैसलबरगर का तर्क है कि एआई मित्र नहीं हो सकता, क्योंकि मित्रता के लिए दूसरे के हित की परवाह आवश्यक है। एआई के पास स्वयं का कोई आंतरिक हित नहीं होता; वह उपयोगकर्ता की सेवा के लिए बना है।

कंपनियां जब एआई को साथी के रूप में प्रस्तुत करती हैं, तो वे मानवीय संबंधों की जटिलता के बिना सहानुभूति का आभास देती हैं। यह संबंध एकतरफा और व्यावसायिक लेन-देन भर रह जाता है।

शिक्षकों, पत्रकारों और स्वास्थ्यकर्मियों के लिए यह जरूरी है कि वे तय करें कि एआई कब सीखने या निर्णय लेने में सहायक है और कब यह मानवीय विवेक का स्थान ले रहा है। 19वीं सदी के लुडाइट आंदोलन का उदाहरण देते हुए विशेषज्ञ कहते हैं कि वे प्रौद्योगिकी के विरोधी नहीं थे, बल्कि उसके अंधाधुंध तरीके से अपनाने के सामाजिक प्रभावों के प्रति सचेत थे।

आज एआई की मदद से लिए जा रहे निर्णय भर्ती, स्वास्थ्य, शिक्षा और न्याय जैसे क्षेत्रों को प्रभावित कर रहे हैं। यदि इन प्रणालियों का आलोचनात्मक मूल्यांकन नहीं किया गया, तो निर्णय की जिम्मेदारी ऐसे एल्गोरिद्म को सौंप दी जाएगी जिनकी सीमाएं अदृश्य हैं।

आखिरकार, आलोचनात्मक एआई साक्षरता केवल बेहतर प्रॉम्प्ट लिखने या कार्यप्रवाह को अनुकूलित करने के बारे में नहीं है, बल्कि यह जानने के बारे में है कि एआई का उपयोग कब करना है और कब उसे बिल्कुल अलग रखना है।

(द कन्वरसेशन) मनीषा रंजन

रंजन


लेखक के बारे में