Google Gemini AI: लाल साड़ी वाली AI हसीनाओं का वायरल ट्रेंड! खूबसूरती के पीछे छुपा बड़ा खतरा, लड़कियों के लिए अलार्म,जानिए कैसे हो सकता है गलत इस्तेमाल
Google Gemini AI: लाल साड़ी वाली AI हसीनाओं का वायरल ट्रेंड! खूबसूरती के पीछे छुपा बड़ा खतरा, लड़कियों के लिए अलार्म,जानिए कैसे हो सकता है गलत इस्तेमाल
Google Gemini AI/Image Source:IBC24
- AI टूल से बनी तस्वीरें,
- फिर अश्लीलता का जाल,
- लड़कियों के लिए अलार्म,
रायपुर/सुमन पांडे: Google Gemini AI: लाल साड़ी वाली हसिनाएं इंटरनेट पर छाई हुई हैं। देश और प्रदेश की लगभग हर लड़की ने ये ट्रेंड फॉलो किया है। एआई टूल से ये तस्वीरें लाइक और फॉलोअर दे रही हैं। मगर क्या आप जानते हैं कि इसके बाद आगे क्या होने वाला है। एआई टूल के इस कदर इस्तेमाल से आपकी तस्वीरों का गलत इस्तेमाल हो सकता है। चूंकि मामला देश और प्रदेश की महिलाओं की सुरक्षा का है, सवाल आपका है इसलिए आईबीसी 24 इस ट्रेंड पर आपको अवेयर कर रहा है। आज आपको इस ट्रेंड से जुड़ा हर वो पहलू दिखाएंगे जो सोशल मीडिया पर खूबसूरती के चकाचौंध में छुप गया है।
Read More : भाजपा नेता ने किया ऐसा कांड, महिला ने खोला दर्दनाक राज़, लिव-इन में रेप कर कराया गर्भपात, फिर पैसे देकर..
Google Gemini AI: हाल ही में, Google Gemini AI पर रेट्रो साड़ी वाली तस्वीरें बनाने का ट्रेंड काफी लोकप्रिय हुआ है। यह ट्रेंड नैनो बनाना नामक AI टूल के माध्यम से शुरू हुआ, जो Gemini में उपलब्ध है। यह उपयोगकर्ताओं को अपनी साधारण तस्वीरों को 90 के दशक की बॉलीवुड फ़िल्मों जैसी स्टाइलिश और कलात्मक तस्वीरों में बदलने की सुविधा देता है। देश के पचास करोड़ से ज्यादा मोबाइल यूजर्स ने इस ट्रेंड को फॉलो किया। मगर इसका खतरानाक पहलू हमारे रिपोर्टर सुमन पांडेय सामने लेकर आ रहे हैं। जेमीनी एआई टूल लड़कियों को फोटो बदलकर फिल्मी हिरोइन की तरह तो दिखा रहा है मगर एक प्रॉम्पट देते ही लड़कियों की तस्वीर का गलत इस्तेमाल हो सकता है।
Google Gemini AI: हमारे रिपोर्टर सुमन पांडेय ने जोखिम लेते हुए अपनी तस्वीरें जेमीनी एआई में अपलोड की। एआई टूल को खतरनाक प्रॉम्पट यानी की निर्देश देने के बाद उसने वैसी ही तस्वीरें बना दीं। हमारे रिेपोर्टर ने खुद की एक तस्वीर बनाई जिसमें उन्हें ड्रग्स और हथियार के साथ गिरफ्तार दिखाई दे रहे हैं एक युवती के साथ बात करते दिख रहे हैं अस्पताल के बाहर घायल दिख रहे हैं एआई ने पिछले कुछ दिनों में खुद को विकसित किया है वो अब हू ब हू असल तस्वीरों जैसा कंटेंट डेवलप कर रहा है। अब ऐसी तस्वीरें भेजकर किसी को ब्लैकमेल करना या किसी तरह की डिजिटल ठगी को अंजाम देना अपराधियों के लिए आसान होता जा रहा है। लड़कियों की तस्वीरों का गलत इस्तेमाल करके अश्लील तस्वीरें और वीडियो बनाने का जोखिम बढ़ गया है। गूगल के एआई टूल ने नैनो बनाना टूल से लोकप्रियता हासिल की इसमें लोग अपनी 3D डॉल बना रहे थे। इसके बाद लड़कियों ने रेट्रो लुक 90s मूवी लुक, विंटेज, और गोल्डन लाइटिंग जैसे शब्द शामिल कर एक्ट्रेस जैसी तस्वीेरें बनाईं।
Read More : पत्नी के साथ गन्दा काम कर रहा था दोस्त… पति ने रच दी खौफनाक साजिश, जब जमीन खोदी गई तो सच आया समाने
समझिए एआई से तस्वीर एडिट करने का जोखिम
- नकली फ़ोटो बनाना: AI की मदद से किसी भी व्यक्ति की नकली फ़ोटो बनाई जा सकती है। इससे किसी को नुकसान पहुँचाया जा सकता है, जैसे किसी की छवि को बिगाड़ना या बदनाम करना।
- गलत जानकारी फैलाना: नकली फ़ोटो का इस्तेमाल करके ग़लत जानकारी या फ़र्ज़ी खबरें फैलाई जा सकती हैं जिससे लोगों में भ्रम और अविश्वास पैदा हो सकता है।
- निजी जानकारी का ग़लत इस्तेमाल: AI की मदद से बनाई गई फ़ोटो से किसी की निजी जानकारी चुराई जा सकती है या उसका ग़लत इस्तेमाल किया जा सकता है।

Facebook




