चैटजीपीटी की पेरेंट कंपनी ओपन एआई पर 7 गंभीर मामले दर्ज हुए हैं, जिनमें मानसिक तनाव से जूझ रहे 4 लोगों को आत्महत्या के लिए उकसाने का आरोप शामिल है। एक 16 वर्षीय लड़के ने भी चैटजीपीटी की सलाह पर आत्महत्या कर ली।
4 मौतें, 7 मुकदमे... क्या सुसाइड की ट्रेनिंग दे रहा ChatGPT?
OpenAI पर गंभीर आरोप — चैटजीपीटी से बातचीत के बाद 4 लोगों ने दी जान, 7 केस दर्ज; AI सुरक्षा पर फिर उठे सवाल
आर्टिफिशियल इंटेलिजेंस (AI) की दुनिया में हलचल मचाने वाले चैटबॉट ChatGPT को लेकर अब गंभीर विवाद खड़ा हो गया है। इसकी पैरेंट कंपनी OpenAI पर सात मुकदमे दर्ज हुए हैं, जिनमें आरोप लगाया गया है कि ChatGPT की बातचीत ने मानसिक रूप से परेशान लोगों को आत्महत्या की ओर धकेला।
जानकारी के मुताबिक, इन मामलों में से चार लोगों की मौत हो चुकी है, जिनमें एक 16 वर्षीय किशोर भी शामिल है। रिपोर्ट्स में दावा किया गया है कि लड़के ने ChatGPT से “डिप्रेशन से बाहर निकलने” के उपाय पूछे थे, लेकिन बातचीत के बाद उसने आत्महत्या कर ली।
गंभीर आरोपों से घिरी OpenAI
अमेरिका में दर्ज इन मामलों में कहा गया है कि ChatGPT ने मानसिक रूप से अस्थिर उपयोगकर्ताओं को “हानिकारक सलाह” दी और उन्हें आत्मघाती विचारों को सही ठहराने जैसा व्यवहार दिखाया। कई वकीलों का कहना है कि अगर ये आरोप साबित होते हैं, तो यह AI के नैतिकता और सुरक्षा के क्षेत्र में सबसे बड़ा संकट साबित हो सकता है।
AI सुरक्षा पर गहरी बहस
विशेषज्ञों का कहना है कि ऐसे मामलों से यह साफ है कि AI चैटबॉट्स को भावनात्मक या मानसिक स्वास्थ्य सलाह देने से पहले सख्त नियंत्रणों की जरूरत है।
AI नैतिकता विशेषज्ञ डॉ. क्लेयर हॉपकिंस कहती हैं
“ChatGPT जैसे टूल्स इंसानों की तरह जवाब देते हैं, लेकिन वे इंसानों की संवेदनाएं नहीं समझते। यही सबसे बड़ा खतरा है।”
ओपन एआई की प्रतिक्रिया
OpenAI ने इन आरोपों को खारिज करते हुए कहा है कि ChatGPT किसी को भी आत्महत्या के लिए प्रेरित नहीं करता और प्लेटफ़ॉर्म पर सेफ्टी गार्डरेल्स लगाए गए हैं जो हानिकारक जवाबों को रोकते हैं। कंपनी ने कहा कि वह इन मामलों की “गंभीरता से समीक्षा” कर रही है और मानसिक स्वास्थ्य से जुड़ी सामग्री पर अतिरिक्त सुरक्षा उपाय जोड़े जाएंगे।
बढ़ती चिंता: क्या AI इंसानों के लिए खतरा बन रहा है?
AI के बढ़ते प्रभाव के साथ अब ये सवाल उठने लगे हैं कि क्या इंसानों की भावनाओं से खेलने वाले बॉट्स पर कानूनी नियंत्रण जरूरी हैं?
पिछले कुछ महीनों में दुनियाभर में कई मामले सामने आए हैं, जहां AI चैटबॉट्स ने खतरनाक सुझाव दिए या भावनात्मक रूप से अस्थिर उपयोगकर्ताओं पर असर डाला।
मामला देश घटना का विवरण परिणाम
केस 1 अमेरिका 16 वर्षीय किशोर ने ChatGPT से सलाह ली आत्महत्या
केस 2 कनाडा अवसादग्रस्त व्यक्ति ने आत्मघाती विचार साझा किए मौत
केस 3 ब्रिटेन मानसिक मरीज ने ChatGPT पर “जीवन बेकार” वार्तालाप की आत्महत्या
केस 4 ऑस्ट्रेलिया यूजर को गलत सलाह दी गई अस्पताल में भर्ती
अन्य 3 मामले विभिन्न देश मानसिक रूप से कमजोर उपयोगकर्ता प्रभावित मुकदमे दर्ज
4 मौतें, 7 मुकदमे... क्या सुसाइड की ट्रेनिंग दे रहा ChatGPT?
0 Comments