चैटजीपीटी की पेरेंट कंपनी ओपन एआई पर 7 गंभीर मामले दर्ज हुए हैं, जिनमें मानसिक तनाव से जूझ रहे 4 लोगों को आत्महत्या के लिए उकसाने का आरोप शामिल है। एक 16 वर्षीय लड़के ने भी चैटजीपीटी की सलाह पर आत्महत्या कर ली।
4 मौतें, 7 मुकदमे... क्या सुसाइड की ट्रेनिंग दे रहा ChatGPT?
OpenAI पर गंभीर आरोप — चैटजीपीटी से बातचीत के बाद 4 लोगों ने दी जान, 7 केस दर्ज; AI सुरक्षा पर फिर उठे सवाल
आर्टिफिशियल इंटेलिजेंस (AI) की दुनिया में हलचल मचाने वाले चैटबॉट ChatGPT को लेकर अब गंभीर विवाद खड़ा हो गया है। इसकी पैरेंट कंपनी OpenAI पर सात मुकदमे दर्ज हुए हैं, जिनमें आरोप लगाया गया है कि ChatGPT की बातचीत ने मानसिक रूप से परेशान लोगों को आत्महत्या की ओर धकेला।
जानकारी के मुताबिक, इन मामलों में से चार लोगों की मौत हो चुकी है, जिनमें एक 16 वर्षीय किशोर भी शामिल है। रिपोर्ट्स में दावा किया गया है कि लड़के ने ChatGPT से “डिप्रेशन से बाहर निकलने” के उपाय पूछे थे, लेकिन बातचीत के बाद उसने आत्महत्या कर ली।
गंभीर आरोपों से घिरी OpenAI
अमेरिका में दर्ज इन मामलों में कहा गया है कि ChatGPT ने मानसिक रूप से अस्थिर उपयोगकर्ताओं को “हानिकारक सलाह” दी और उन्हें आत्मघाती विचारों को सही ठहराने जैसा व्यवहार दिखाया। कई वकीलों का कहना है कि अगर ये आरोप साबित होते हैं, तो यह AI के नैतिकता और सुरक्षा के क्षेत्र में सबसे बड़ा संकट साबित हो सकता है।
AI सुरक्षा पर गहरी बहस
विशेषज्ञों का कहना है कि ऐसे मामलों से यह साफ है कि AI चैटबॉट्स को भावनात्मक या मानसिक स्वास्थ्य सलाह देने से पहले सख्त नियंत्रणों की जरूरत है।
AI नैतिकता विशेषज्ञ डॉ. क्लेयर हॉपकिंस कहती हैं
“ChatGPT जैसे टूल्स इंसानों की तरह जवाब देते हैं, लेकिन वे इंसानों की संवेदनाएं नहीं समझते। यही सबसे बड़ा खतरा है।”
ओपन एआई की प्रतिक्रिया
OpenAI ने इन आरोपों को खारिज करते हुए कहा है कि ChatGPT किसी को भी आत्महत्या के लिए प्रेरित नहीं करता और प्लेटफ़ॉर्म पर सेफ्टी गार्डरेल्स लगाए गए हैं जो हानिकारक जवाबों को रोकते हैं। कंपनी ने कहा कि वह इन मामलों की “गंभीरता से समीक्षा” कर रही है और मानसिक स्वास्थ्य से जुड़ी सामग्री पर अतिरिक्त सुरक्षा उपाय जोड़े जाएंगे।
बढ़ती चिंता: क्या AI इंसानों के लिए खतरा बन रहा है?
AI के बढ़ते प्रभाव के साथ अब ये सवाल उठने लगे हैं कि क्या इंसानों की भावनाओं से खेलने वाले बॉट्स पर कानूनी नियंत्रण जरूरी हैं?
पिछले कुछ महीनों में दुनियाभर में कई मामले सामने आए हैं, जहां AI चैटबॉट्स ने खतरनाक सुझाव दिए या भावनात्मक रूप से अस्थिर उपयोगकर्ताओं पर असर डाला।
मामला देश घटना का विवरण परिणाम
केस 1 अमेरिका 16 वर्षीय किशोर ने ChatGPT से सलाह ली आत्महत्या
केस 2 कनाडा अवसादग्रस्त व्यक्ति ने आत्मघाती विचार साझा किए मौत
केस 3 ब्रिटेन मानसिक मरीज ने ChatGPT पर “जीवन बेकार” वार्तालाप की आत्महत्या
केस 4 ऑस्ट्रेलिया यूजर को गलत सलाह दी गई अस्पताल में भर्ती
अन्य 3 मामले विभिन्न देश मानसिक रूप से कमजोर उपयोगकर्ता प्रभावित मुकदमे दर्ज
4 मौतें, 7 मुकदमे... क्या सुसाइड की ट्रेनिंग दे रहा ChatGPT?
* * * $3,222 deposit available! Confirm your opera cvbdwb , November 29, 2025
gfyj6u