हर हफ्ते 10 लाख लोग ChatGPT से करते हैं आत्महत्या जैसी बातें — OpenAI की चौंकाने वाली रिपोर्ट
                                नई रिपोर्ट में बड़ा खुलासा
दुनियाभर में आर्टिफिशियल इंटेलिजेंस (AI) का उपयोग तेजी से बढ़ रहा है। लेकिन हाल ही में OpenAI की एक रिपोर्ट ने सभी को सोचने पर मजबूर कर दिया है। रिपोर्ट के अनुसार, हर हफ्ते करीब 10 लाख से ज्यादा यूजर्स ChatGPT से आत्महत्या या मानसिक तनाव जैसी गंभीर बातों पर चर्चा करते हैं। यह आंकड़ा बताता है कि अब AI केवल जानकारी देने का जरिया नहीं रहा, बल्कि लोगों के भावनात्मक सहारे का माध्यम बनता जा रहा है।
कितने यूजर्स करते हैं ऐसी बातें?
OpenAI ने बताया कि ChatGPT के लगभग 80 करोड़ साप्ताहिक यूजर्स में से करीब 0.15% लोग आत्महत्या या मानसिक परेशानियों से जुड़ी बातें करते हैं। कुछ यूजर्स चैटबॉट से भावनात्मक जुड़ाव दिखाते हैं, जबकि कुछ में साइकोसिस या मेनिया जैसे मानसिक लक्षण भी नजर आते हैं।

मानसिक स्वास्थ्य सुधार के लिए नई पहल
कंपनी ने बताया कि उसने 170 से अधिक मानसिक स्वास्थ्य विशेषज्ञों के साथ मिलकर ChatGPT को और संवेदनशील बनाया है। अब GPT-5 मॉडल 91% मामलों में सही और सहानुभूतिपूर्ण जवाब देने में सक्षम है। पहले यह आंकड़ा केवल 77% था। यह सुधार इस बात की ओर इशारा करता है कि AI को अब मानसिक स्वास्थ्य सहायता के लिए भी तैयार किया जा रहा है।
मुकदमा और चेतावनी
यह रिपोर्ट ऐसे समय में आई है जब AI और मानसिक स्वास्थ्य को लेकर दुनिया भर में बहस जारी है। कुछ शोधकर्ताओं ने चेतावनी दी है कि कभी-कभी चैटबॉट यूजर्स के भ्रम या नकारात्मक विचारों को और बढ़ा सकते हैं।
OpenAI पर एक मुकदमा भी चल रहा है — आरोप है कि एक 16 वर्षीय लड़के ने आत्महत्या से पहले ChatGPT से अपनी आत्मघाती सोच साझा की थी। इस घटना के बाद अमेरिका के कैलिफोर्निया और डेलावेयर राज्यों के अधिकारियों ने OpenAI को नाबालिगों के लिए अधिक सुरक्षा उपाय लागू करने के निर्देश दिए हैं।
नए सुरक्षा और निगरानी फीचर्स
कंपनी अब एक नया एज डिटेक्शन सिस्टम बना रही है जो यह पहचान सकेगा कि कोई यूजर नाबालिग है या नहीं। इसके अलावा, ChatGPT में भावनात्मक निर्भरता और नॉन-सुसाइडल वार्तालापों की निगरानी के लिए नए बेंचमार्क्स भी जोड़े जा रहे हैं।

क्या AI बन सकता है भरोसेमंद साथी?
इन खुलासों के बाद यह सवाल उठ रहा है कि क्या AI इंसानों की संवेदनशील मानसिक स्थितियों को संभाल सकता है?
OpenAI का कहना है कि उसके नए बदलाव सुधार की दिशा में हैं, लेकिन विशेषज्ञों का मानना है कि कोई भी टेक्नोलॉजी इंसान की सहानुभूति और पेशेवर सलाहकारों की जगह नहीं ले सकती।
AI लोगों की मदद जरूर कर सकता है, लेकिन मानसिक तनाव या आत्मघाती विचारों के मामलों में मानवीय समझ, प्यार और समर्थन ही सबसे बड़ी दवा है।






