OpenAI की ताज़ा रिपोर्ट ने हैरान कर देने वाला खुलासा किया है। कंपनी के अनुसार, हर हफ्ते 10 लाख से ज्यादा ChatGPT यूजर्स आत्महत्या जैसे गंभीर मानसिक स्वास्थ्य मुद्दों पर चैटबॉट से बातचीत करते हैं। OpenAI ने बताया कि ChatGPT के लगभग 800 मिलियन साप्ताहिक यूजर्स में से करीब 0.15 प्रतिशत लोग ऐसे हैं, जो बातचीत के दौरान आत्महत्या का इरादा या योजना स्पष्ट रूप से बताते हैं। वहीं, समान अनुपात में यूजर्स भावनात्मक लगाव (emotional attachment) दिखाते हैं, जबकि लाखों में से कुछ यूजर्स में साइकोसिस या मेनिया जैसे लक्षण नजर आते हैं।
मानसिक स्वास्थ्य के लिए नई पहल
OpenAI ने कहा है कि उसने 170 से अधिक मानसिक स्वास्थ्य विशेषज्ञों की मदद से यह सुनिश्चित किया है कि ChatGPT अब ऐसे यूजर्स को बेहतर तरीके से जवाब दे सके जो मानसिक रूप से परेशान हों। कंपनी ने बताया कि उसके नए मॉडल GPT-5 में इस दिशा में बड़ा सुधार किया गया है। अब ChatGPT लगभग 91 प्रतिशत मामलों में उपयुक्त प्रतिक्रिया देता है, जबकि पिछला संस्करण केवल 77 प्रतिशत मामलों में ही ऐसा कर पाता था।
AI और मानसिक स्वास्थ्य पर वैश्विक बहस
यह रिपोर्ट ऐसे समय में आई है जब दुनियाभर में आर्टिफिशियल इंटेलिजेंस और मानसिक स्वास्थ्य पर बहस तेज हो गई है। रिसर्चर्स का कहना है कि चैटबॉट कभी-कभी यूजर्स के भ्रमपूर्ण विचारों को और बढ़ावा दे सकते हैं। वहीं, OpenAI एक मुकदमे का सामना कर रही है, जिसमें आरोप है कि एक 16 वर्षीय यूजर ने आत्महत्या से पहले ChatGPT से अपनी भावनाओं को साझा किया था।
OpenAI ने बताया कि वह एक नया Age Detection System विकसित कर रही है, जो नाबालिग यूजर्स की पहचान कर सख्त सुरक्षा उपाय लागू करेगा। साथ ही कंपनी ने emotional dependency और non-suicidal crises की निगरानी के लिए भी नए मानक जोड़े हैं।
क्या AI पर भरोसा किया जा सकता है?
विशेषज्ञों का कहना है कि भले ही AI चैटबॉट्स मददगार साबित हो रहे हैं, लेकिन वे कभी भी मानवीय सहानुभूति और पेशेवर काउंसलिंग की जगह नहीं ले सकते। OpenAI का मानना है कि उसके नए प्रयास इस क्षेत्र में सकारात्मक बदलाव लाएंगे, लेकिन मानसिक स्वास्थ्य से जुड़े मामलों में इंसानी संवाद की भूमिका अब भी सबसे अहम है।





