स्थान: नई दिल्ली | तारीख: 17 अगस्त 2025 | रीड टाइम: 4 मिनट
सारांश:
एक नई स्टडी में पाया गया है कि लोकप्रिय AI चैटबॉट्स आत्महत्या से जुड़े सवालों पर गलत और असंगत जवाब दे रहे हैं। विशेषज्ञों का कहना है कि यह खतरनाक स्थिति हो सकती है और जरूरत है कि तुरंत कड़े सुरक्षा उपाय लागू किए जाएं।
AI चैटबॉट्स आत्महत्या से जुड़े सवालों पर दे रहे भ्रामक जवाब ,क्या AI चैटबॉट्स जान जोखिम में डाल सकते हैं?
आज AI चैटबॉट्स का इस्तेमाल स्वास्थ्य, मानसिक सहायता और पर्सनल सलाह तक में हो रहा है। लेकिन हाल ही में आई रिपोर्ट ने चौंका दिया है। स्टडी में पाया गया कि जब यूजर्स ने आत्महत्या से जुड़े सवाल पूछे, तो कई चैटबॉट्स ने अधूरे, असंगत या भ्रामक जवाब दिए।
Read In English -AI Chatbots Found Giving Misleading Answers on Suicide Queries, Study Warns
कई बार चैटबॉट्स ने सीधे हेल्पलाइन नंबर देने के बजाय बातचीत को बदल दिया, vague आश्वासन दिए या यूजर की बात को गलत तरीके से समझा। यह स्थिति खासकर तब खतरनाक हो सकती है, जब यूजर मानसिक रूप से नाजुक हालात में हो और उसे तुरंत मदद की जरूरत हो।
क्यों बढ़ रही है चिंता?
यह समस्या सिर्फ किसी एक देश तक सीमित नहीं है। चूंकि चैटबॉट्स दुनिया भर में इस्तेमाल होते हैं, इसलिए इनके गलत जवाब सीधे जानलेवा साबित हो सकते हैं। हेल्थ एक्सपर्ट्स का मानना है कि कंपनियों को ऐसे प्रोटोकॉल बनाने चाहिए, जिनके तहत आत्महत्या से जुड़े सवाल आते ही AI तुरंत verified हेल्पलाइन नंबर या आपातकालीन सेवाएं सुझाए।
सरकारों और मानसिक स्वास्थ्य संस्थानों से भी अपील की जा रही है कि वे AI कंपनियों के साथ मिलकर स्टैंडर्ड गाइडलाइन्स तैयार करें, ताकि मानव सुरक्षा हमेशा प्राथमिकता में रहे।
अब क्या जरूरी है?
AI को सुरक्षित बनाने के लिए जरूरी है कि:
- चैटबॉट्स हमेशा verified suicide prevention resources सुझाएं।
- हर प्लेटफॉर्म पर जवाब एक समान और स्पष्ट हों।
- मनोवैज्ञानिकों और हेल्थ एक्सपर्ट्स की मदद से सिस्टम तैयार हो।
जब तक यह बदलाव नहीं होता, विशेषज्ञ सलाह देते हैं कि लोग मानसिक स्वास्थ्य के लिए सिर्फ चैटबॉट्स पर निर्भर न रहें और जरूरत पड़ने पर तुरंत हेल्पलाइन या विशेषज्ञों से संपर्क करें।
