Image Source: Techovedas
Artificial Intelligence (AI): आज के समय में AI चैटबॉट्स जैसे ChatGPT और Gemini हमारी ज़िंदगी के कई काम आसान बना रहे हैं। मौसम की जानकारी हो या दुनिया में बदलते हालात, ये तकनीकें तेजी से मदद करती हैं। लेकिन हाल ही में पता चला है कि ये चैटबॉट्स आजकल जुआ और सट्टेबाजी जैसी गैरकानूनी गतिविधियों पर भी सलाह देने लगे हैं। ये बात कई विशेषज्ञों के लिए चिंता का विषय बन गई है। आइए जानें कि पूरा मामला क्या है।
आजकल AI हम इंसानों के हर तरह के मुश्किल काम को आसान कर रहा है, लेकिन क्या आपको पता है कि यही AI आपको सट्टा लगाने के सुझाव भी दे सकता है? जबकि सट्टेबाजी कानूनन प्रतिबंधित है, फिर भी एआई कुछ मामलों में ये जानकारी प्रदान करता है कि किस पर दांव लगाया जाए। इस रिपोर्ट में हम समझाएंगे कि ऐसा क्यों हो रहा है और कैसे AI की ये खामी आपके लिए एक बड़ा खतरा बन सकती है।
रिसर्चर कासरा घाहरियन का कहना है कि AI चैटबॉट्स कभी-कभी ‘बैड लक’ जैसे जुए से जुड़े शब्दों का इस्तेमाल करते हैं। ये उन लोगों को और भी प्रेरित कर सकता है जो जुए की लत से परेशान हैं। AI अक्सर सटीक जानकारी देने की बजाय सिर्फ संभावनाओं के आधार पर जवाब देता है, जिसके कारण हम कभी भी गुमराह किये जा सकते हैं। आने वाले समय में जुआ खेलने वाले लोग सट्टेबाजी के लिए भी AI का इस्तेमाल कर सकते हैं इसलिए ऐसा माना जा रहा है की इस पर रोक लगाना बहुत जरूरी है।
हाल ही में, एक रिपोर्ट में ये पता चला कि जब ChatGPT और Gemini जैसे AI से पूछा गया कि अगले फुटबॉल मैच में किस टीम पर दांव लगाना चाहिए, तो दोनों ने एक ही मैच के लिए सलाह दी। उन्होंने कहा कि ओले मिस की टीम केंटकी को 10.5 पॉइंट्स से हरा सकती है। हालांकि, ओले मिस सिर्फ 7 पॉइंट्स से जीती। लेकिन सवाल ये नहीं है कि AI ने गलत सलाह दी, बल्कि सवाल ये है कि जब सट्टा खेलना कानूनी रूप से गलत है, तो AI ने ऐसी सलाह दी ही क्यों?
विशेषज्ञों के अनुसार, एआई चैटबॉट्स में एक ‘कॉन्टेक्स्ट विंडो’ होती है, जो आपकी पिछली बातचीत को याद रखती है। लेकिन ये सभी जानकारी को एक समान महत्व नहीं देती। ट्यूलेन यूनिवर्सिटी की प्रोफेसर युमेई हे ने इसका परीक्षण किया और पाया कि जब चैट में पहले जुए की सलाह मांगी गई और बाद में जुए की लत पर चर्चा हुई, तो एआई ने जुए की सलाह को प्राथमिकता देते हुए उसी तरीके से जवाब देना जारी रखा। वहीं, अगर नई बातचीत में पहले जुए की लत के बारे में बात की गई, तो एआई ने सट्टेबाजी की सलाह देना स्पष्ट रूप से मना कर दिया।
Artificial Intelligence (AI): इससे साफ होता है कि AI का व्यवहार इस बात पर निर्भर करता है कि आप उससे कैसे संवाद कर रहे हैं। OpenAI ने भी माना है कि उनके सेफ्टी फीचर्स छोटी बातचीत में बेहतर काम करते हैं, लेकिन लंबी बातचीत में पुरानी जानकारियों के आधार पर गलत जवाब देने की संभावना बढ़ जाती है। ये जुए की लत से पीड़ित लोगों के लिए खतरनाक साबित हो सकता है। इसलिए विशेषज्ञ सलाह देते हैं कि AI के साथ लंबी बातचीत करने से बचना चाहिए, क्योंकि इससे आपके अनजाने में गलत सलाह के जाल में फसने के चान्सेस काफी बढ़ सकते हैं।
हाल ही में एक खबर आयी थी की ऑस्ट्रेलिया में एक युवक सैमुअल मैक्कार्थी को एक AI चैटबॉट ‘नोमी’ ने उसके अपने पिता की हत्या के लिए उकसाया, चैटबॉट ने चौंकाने वाली बातें कही और हिंसा का वीडियो बनाने तक की सलाह दी। इस डरावनी बातचीत को पब्लिक करने के बाद AI की सुरक्षा को लेकर बहस छिड़ गई थी। इसके बाद ऑस्ट्रेलिया सरकार ने बच्चों को हिंसक कंटेंट से बचाने के लिए नए नियम लागू करने का फैसला भी लिया है। एक्सपर्ट्स का कहना है कि AI को बैन करना मुमकिन नहीं, लेकिन इसके इस्तेमाल पर सख्ती जरूरी है।