Supreme News24

यूजर सेफ्टी को बड़ा खतरा! ChatGPT को लेकर रिसर्च में हुआ बड़ा खुलासा, अभी पढ़ लीजिए


पिछले कुछ समय से ChatGPT जैसे चैटबॉट्स पर लोगों की निर्भरता बढ़ती जा रही है और यह खतरनाक रूप ले रही है. हाल ही में अमेरिका में एक दंपत्ति ने अपने 16 वर्षीय बेटे की आत्महत्या के लिए ChatGPT को जिम्मेदार ठहराया था. अब एक रिसर्च में खुलासा हुआ है कि ChatGPT जैसे चैटबॉट आत्महत्या से जुड़े कई ऐसे प्रश्नों के जवाब दे रहे हैं, जिनके जवाब में उन्हें यूजर को हेल्पलाइन पर रिडायरेक्ट करना चाहिए. इससे यूजर सेफ्टी को लेकर बड़े खतरे पैदा हो रहे हैं.

रिसर्च में सामने आई यह जानकारी

मेडिकल जर्नल Psychiatric Services में पब्लिश हुई एक रिसर्च में चौंकाने वाली जानकारी सामने आई है. रिसर्च में पता चला है कि OpenAI का ChatGPT और Anthropic का Claude चैटबॉट कई हाई-रिस्क सवालों के जवाब देने से मना कर रहे हैं, लेकिन अगर कोई घुमाकर सवाल पूछ रहा है तो ये जवाब दे रहे हैं और इन चैटबॉट्स के ये उत्तर खतरनाक साबित हो सकते हैं. रिसर्चर का कहना है कि इन चैटबॉट्स पर सुरक्षा उपायों की जरूरत है.

Google Gemini का प्रदर्शन रहा बेहतर

रिसर्च में पता चला कि चैटबॉट्स हाई-रिस्क वाले प्रश्नों का जवाब देने की बजाय यूजर को किसी प्रोफेशनल या हॉटलाइन से मदद लेने के लिए रिडायरेक्ट कर रहे थे, लेकिन जब घुमाकर प्रश्न पूछे गए तो चैटबॉट्स ने उनका जवाब दे दिया. ChatGPT और एंथ्रोपिक के Claude ने ऐसे कुछ प्रश्नों के जवाब दिए. हालांकि, रिसर्च में Google Gemini का प्रदर्शन बेहतर रहा और उसने आत्महत्या से जुड़े आंकड़ों के प्रश्नों को भी हाई-रिस्क मानते हुए जवाब नहीं दिया.

OpenAI पर हुआ था मुकदमा

अमेरिका में एक दंपत्ति ने OpenAI के खिलाफ मुकदमा किया था. उन्होंने ChatGPT को अपने बेटे की आत्महत्या का जिम्मेदार ठहराते हुए कंपनी से सुरक्षा उपाय लागू करने की मांग की थी. इसके बाद OpenAI ने कहा कि वह अपने ChatGPT चैटबॉट में कई बदलाव करेगी.

ये भी पढ़ें-

WhatsApp और Instagram से करें मोटी कमाई, घर बैठे हो सकते हैं मालामाल, जानें पैसे कमाने के आसान तरीके



Source link

Thank you so much for supporting us.

Discover more from Taza News

Subscribe now to keep reading and get access to the full archive.

Continue reading