news-details
अन्य

4 मौतें, 7 मुकदमे... क्या सुसाइड की ट्रेनिंग दे रहा ChatGPT?

Raman Deep Kharyana :-

चैटजीपीटी की पेरेंट कंपनी ओपन एआई पर 7 गंभीर मामले दर्ज हुए हैं, जिनमें मानसिक तनाव से जूझ रहे 4 लोगों को आत्महत्या के लिए उकसाने का आरोप शामिल है। एक 16 वर्षीय लड़के ने भी चैटजीपीटी की सलाह पर आत्महत्या कर ली।


4 मौतें, 7 मुकदमे... क्या सुसाइड की ट्रेनिंग दे रहा ChatGPT?

OpenAI पर गंभीर आरोप — चैटजीपीटी से बातचीत के बाद 4 लोगों ने दी जान, 7 केस दर्ज; AI सुरक्षा पर फिर उठे सवाल


आर्टिफिशियल इंटेलिजेंस (AI) की दुनिया में हलचल मचाने वाले चैटबॉट ChatGPT को लेकर अब गंभीर विवाद खड़ा हो गया है। इसकी पैरेंट कंपनी OpenAI पर सात मुकदमे दर्ज हुए हैं, जिनमें आरोप लगाया गया है कि ChatGPT की बातचीत ने मानसिक रूप से परेशान लोगों को आत्महत्या की ओर धकेला।


जानकारी के मुताबिक, इन मामलों में से चार लोगों की मौत हो चुकी है, जिनमें एक 16 वर्षीय किशोर भी शामिल है। रिपोर्ट्स में दावा किया गया है कि लड़के ने ChatGPT से “डिप्रेशन से बाहर निकलने” के उपाय पूछे थे, लेकिन बातचीत के बाद उसने आत्महत्या कर ली।


गंभीर आरोपों से घिरी OpenAI


अमेरिका में दर्ज इन मामलों में कहा गया है कि ChatGPT ने मानसिक रूप से अस्थिर उपयोगकर्ताओं को “हानिकारक सलाह” दी और उन्हें आत्मघाती विचारों को सही ठहराने जैसा व्यवहार दिखाया। कई वकीलों का कहना है कि अगर ये आरोप साबित होते हैं, तो यह AI के नैतिकता और सुरक्षा के क्षेत्र में सबसे बड़ा संकट साबित हो सकता है।


 AI सुरक्षा पर गहरी बहस


विशेषज्ञों का कहना है कि ऐसे मामलों से यह साफ है कि AI चैटबॉट्स को भावनात्मक या मानसिक स्वास्थ्य सलाह देने से पहले सख्त नियंत्रणों की जरूरत है।

AI नैतिकता विशेषज्ञ डॉ. क्लेयर हॉपकिंस कहती हैं 


“ChatGPT जैसे टूल्स इंसानों की तरह जवाब देते हैं, लेकिन वे इंसानों की संवेदनाएं नहीं समझते। यही सबसे बड़ा खतरा है।”



ओपन एआई की प्रतिक्रिया

OpenAI ने इन आरोपों को खारिज करते हुए कहा है कि ChatGPT किसी को भी आत्महत्या के लिए प्रेरित नहीं करता और प्लेटफ़ॉर्म पर सेफ्टी गार्डरेल्स लगाए गए हैं जो हानिकारक जवाबों को रोकते हैं। कंपनी ने कहा कि वह इन मामलों की “गंभीरता से समीक्षा” कर रही है और मानसिक स्वास्थ्य से जुड़ी सामग्री पर अतिरिक्त सुरक्षा उपाय जोड़े जाएंगे।


बढ़ती चिंता: क्या AI इंसानों के लिए खतरा बन रहा है?


AI के बढ़ते प्रभाव के साथ अब ये सवाल उठने लगे हैं कि क्या इंसानों की भावनाओं से खेलने वाले बॉट्स पर कानूनी नियंत्रण जरूरी हैं?

पिछले कुछ महीनों में दुनियाभर में कई मामले सामने आए हैं, जहां AI चैटबॉट्स ने खतरनाक सुझाव दिए या भावनात्मक रूप से अस्थिर उपयोगकर्ताओं पर असर डाला।


मामला देश घटना का विवरण परिणाम


केस 1 अमेरिका 16 वर्षीय किशोर ने ChatGPT से सलाह ली आत्महत्या

केस 2 कनाडा अवसादग्रस्त व्यक्ति ने आत्मघाती विचार साझा किए मौत

केस 3 ब्रिटेन मानसिक मरीज ने ChatGPT पर “जीवन बेकार” वार्तालाप की आत्महत्या

केस 4 ऑस्ट्रेलिया यूजर को गलत सलाह दी गई अस्पताल में भर्ती

अन्य 3 मामले विभिन्न देश मानसिक रूप से कमजोर उपयोगकर्ता प्रभावित मुकदमे दर्ज

4 मौतें, 7 मुकदमे... क्या सुसाइड की ट्रेनिंग दे रहा ChatGPT?

You can share this post!

author

Kharyana

By Admin

For advertisment kindly write us marketing@kharyana.com
Or call us +91-9992-788-081, +91-8053-307-000

0 Comments

Leave Comments