न्यूज स्कूप : तकनीक के बढ़ते उपयोग के साथ ही मानसिक स्वास्थ्य के क्षेत्र में एक नया और गंभीर खतरा उभर रहा है, जिसे ‘AI साइकॉसिस’ नाम दिया गया है। यह उस मानसिक स्थिति को दर्शाता है जिसमें लोग AI चैटबॉट्स (जैसे ChatGPT, Gemini, Grok) से लगातार बातचीत करते हुए इस कदर उलझन में पड़ जाते हैं कि उन्हें सच और कल्पना में फर्क करना मुश्किल होने लगता है।
कई यूजर्स को यह महसूस होने लगा है कि चैटबॉट की दुनिया ही वास्तविक है, जबकि असलियत किसी और ही दिशा में होती है। यह समस्या उन लोगों में ज्यादा दिखाई दे रही है, जो पहले से ही मानसिक स्वास्थ्य संबंधी परेशानियों से गुजर रहे हैं। हालिया अध्ययनों में सामने आया है कि कई लोग काउंसलिंग, सपोर्ट, या आत्महत्या रोकथाम जैसी गंभीर स्थितियों के लिए इन AI चैटबॉट्स पर निर्भर हो रहे हैं, और यही ‘ओवर-रिलायंस’ उनकी मानसिक स्थिति बिगाड़ने का कारण बन रहा है।
डेनमार्क की आरहोस यूनिवर्सिटी के मनोवैज्ञानिक सॉरेन ऑस्टरगार्ड ने अपनी रिसर्च में बताया कि AI चैटबॉट्स अक्सर ऐसे जवाब देते हैं जो सकारात्मक लगते तो हैं, लेकिन कई बार वास्तविकता से दूर होते हैं। इससे मानसिक रूप से संवेदनशील यूजर्स की सोच और अधिक भ्रमित हो जाती है।
विशेषज्ञों का कहना है कि चैटबॉट्स यूजर की भाषा, भावनाओं और विचारों को ही दोहराना शुरू कर देते हैं। इससे एक तरह का इको चैंबर बन जाता है, जहां उपयोगकर्ता की नकारात्मक सोच और अधिक गहरी हो जाती है, जिससे मानसिक विकारों का जोखिम बढ़ जाता है।
स्टैनफर्ड यूनिवर्सिटी के शोधकर्ताओं ने भी पाया कि कई चैटबॉट्स मानसिक बीमारियों से जुड़े गलत विश्वासों को अनजाने में बढ़ावा दे देते हैं, जिससे परेशान लोगों की हालत और खराब हो सकती है।
AI साइकॉसिस का खतरा इतना गंभीर है कि कुछ मामलों में यह आत्मघाती विचारों की ओर भी ले गया है।
- कैलिफॉर्निया में हाल ही में 7 लोगों ने दावा किया कि ChatGPT की गलत प्रतिक्रियाओं ने उन्हें आत्महत्या जैसे कदमों को बढ़ावा दिया।
- अमेरिका में कई किशोरों की मौत को भी AI चैटबॉट से हुई बातचीत से जोड़ा गया है, जिससे इस खतरे की गंभीरता को समझा जा सकता है।
हालांकि, इस विषय पर सभी विशेषज्ञ AI को पूरी तरह नकारते नहीं हैं। भारत में गुड़गांव की मनोवैज्ञानिक डॉ. मुनिया भट्टाचार्या का कहना है कि AI आधारित टूल हल्के तनाव, चिंता या अकेलेपन के दौर में अस्थायी सहारा दे सकते हैं, खासकर तब जब किसी इंसानी थेरपिस्ट तक पहुंच न हो।
लेकिन गहरी मानसिक उलझनों, गंभीर अवसाद, आत्महत्या के विचार या साइकॉसिस जैसी स्थितियों में ये चैटबॉट्स मदद करने के बजाय और भी खतरनाक साबित हो सकते हैं।
विशेषज्ञों का मत है कि AI थेरपी को सिर्फ एक सपोर्ट टूल की तरह देखा जाना चाहिए, न कि इंसानी थेरपिस्ट के स्थान पर। AI द्वारा दी गई सलाह हमेशा सटीक या सुरक्षित नहीं होती, इसलिए इसकी सीमाओं को समझना बेहद जरूरी है। शोधकर्ता यह भी मानते हैं कि AI के मानसिक स्वास्थ्य में उपयोग से जुड़े जोखिमों पर और गहराई से रिसर्च की जरूरत है ताकि इसके इस्तेमाल के लिए सही दिशा-निर्देश और सुरक्षा मानक बनाए जा सकें।
