ब्रेकिंग न्यूज़

कोल्हापुर में श्री विद्या कोटि कुमकुमार्चन महायज्ञ, स्वामी अभिषेक ब्रह्मचारी ने देश की प्रगति और सनातन धर्म के लिए दिया संदेश कोल्हापुर में श्री विद्या कोटि कुमकुमार्चन महायज्ञ, स्वामी अभिषेक ब्रह्मचारी ने देश की प्रगति और सनातन धर्म के लिए दिया संदेश Bihar Crime: मामूली विवाद ने लिया हिंसक रूप, दबंगों ने घर पर चढ़कर की फायरिंग, वीडियो वायरल प्रीमियम पेट्रोल के बाद इंडस्ट्रियल डीजल भी हुआ महंगा, IOC ने बढ़ा दिया इतना रेट; आम लोगों पर क्या होगा असर? प्रीमियम पेट्रोल के बाद इंडस्ट्रियल डीजल भी हुआ महंगा, IOC ने बढ़ा दिया इतना रेट; आम लोगों पर क्या होगा असर? Bihar Mausam Update: बिहार के इन 15 जिलों में बारिश का अलर्ट..तेज हवा भी चलेगी, आपदा प्रबंधन विभाग ने 21 मार्च तक के लिए जारी किया चेतावनी बिहार में ऑर्केस्ट्रा के नाम पर चल रहा मानव तस्करी का खेल, 9 नाबालिग समेत 10 लड़कियों का रेस्क्यू बिहार में ऑर्केस्ट्रा के नाम पर चल रहा मानव तस्करी का खेल, 9 नाबालिग समेत 10 लड़कियों का रेस्क्यू BPL solar panel : बिहार में बीपीएल परिवारों के लिए बड़ी राहत! घर की छत पर अब फ्री सोलर पैनल, जानें इसके लिए कब तक कर सकते हैं अप्लाई? इस साल अगर आपका भी है टॉपरों की लिस्ट में नाम, तो हो जाएंगे मालामाल: BSEB ने प्राइज मनी में किया बदलाव, जानिए अब कितनी मिलेगी राशि

Home / india / जान का दुश्मन बना ChatGPT, इसकी सलाह ने अस्पताल में करवा दिया एडमिट

जान का दुश्मन बना ChatGPT, इसकी सलाह ने अस्पताल में करवा दिया एडमिट

ChatGPT की गलत डाइट सलाह के कारण 60 साल के बुजुर्ग की जान खतरे में पड़ गई। आनन-फानन में उन्हें अस्पताल में भर्ती होना पड़ गया। 3 महीने तक इलाज चलता रहा। इसलिए इस परपर आंख मूंदकर भरोसा ना करें।

10-Aug-2025 02:31 PM

By First Bihar

DESK: आज कल लोग हर सवाल का जवाब ChatGPT और AI से करते हैं। लेकिन यह हर सवाल का सही जवाब दें यह जरूरी नहीं है। इस पर पूर तरह से विश्वास नहीं करना चाहिए। क्योंकि ChatGPT के चक्कर में एक बुजुर्ग की जान आफत में पड़ गयी। ChatGPT इनके लिए जान का दुश्मन बन गया। जिसके चलते उन्हें अस्पताल में एडमिट करवाना पड़ गया। 


ChatGPT की गलत डाइट सलाह के कारण 60 साल के बुजुर्ग की जान खतरे में पड़ गई। आनन-फानन में उन्हें अस्पताल में भर्ती होना पड़ गया। 3 महीने तक इलाज चलता रहा। इसलिए इस परपर आंख मूंदकर भरोसा ना करें। अगर आप भी ChatGPT या किसी अन्य AI टूल से फिटनेस टिप्स या डाइट प्लान लेते हैं, तो सावधान हो जाइए। AI से ली गई बिना जाँची-परखी सलाह आपकी सेहत के लिए खतरनाक साबित हो सकती है। हाल ही में अमेरिका के न्यूयॉर्क में एक 60 वर्षीय व्यक्ति को इसी तरह की AI सलाह मानने के कारण अस्पताल में भर्ती होना पड़ा।


रिपोर्ट के अनुसार, बुजुर्ग ने ChatGPT से पूछा कि वह अपने आहार से सोडियम क्लोराइड (यानी टेबल सॉल्ट) को कैसे हटा सकता है। इसके जवाब में AI ने सोडियम ब्रोमाइड को एक विकल्प के रूप में सुझाया — जो कि 20वीं सदी की शुरुआत में दवाओं में इस्तेमाल होता था, लेकिन अब इसे टॉक्सिक (विषैला) माना जाता है। उस व्यक्ति ने ChatGPT की इस सलाह पर अमल करते हुए बिना डॉक्टर से सलाह लिए सोडियम ब्रोमाइड ऑनलाइन खरीदा और लगभग तीन महीने तक अपने खाने में इसका इस्तेमाल करता रहा।


स्वास्थ्य पर क्या असर पड़ा?

उसने अपने आहार से सोडियम की मात्रा लगभग शून्य कर दी। इसका नतीजा हुआ हाइपोनेट्रेमिया, यानी खून में सोडियम की मात्रा खतरनाक रूप से कम हो गई। व्यक्ति को मतिभ्रम (hallucinations), पैरानॉया, और अत्यधिक प्यास लगने लगी। अस्पताल में भर्ती होने पर वह इतना भ्रमित था कि पानी पीने से भी इनकार कर रहा था।


डॉक्टरों के अनुसार, उसे ब्रोमाइड टॉक्सिसिटी नामक स्थिति हो गई थी जो अब दुर्लभ है, लेकिन अतीत में कुछ मानसिक बीमारियों के इलाज में ब्रोमाइड के इस्तेमाल से देखी जाती थी। उसमें तंत्रिका संबंधी लक्षण, त्वचा पर रैश, और लाल धब्बे जैसे लक्षण भी दिखाई दिए जो ब्रोमिज्म के संकेत हैं।


60 साल के बुजुर्ग को करीब तीन सप्ताह तक अस्पताल में रहना पड़ गया। इलाज में मुख्य रूप से रीहाइड्रेशन और इलेक्ट्रोलाइट्स का संतुलन बहाल करने पर ध्यान दिया गया। अंततः उसकी हालत में सुधार हुआ और सोडियम व क्लोराइड का स्तर सामान्य होने पर उसे छुट्टी दे दी गई।


क्या कहती है रिपोर्ट?

यह मामला हाल ही में अमेरिकन कॉलेज ऑफ फिजिशियन जर्नल में प्रकाशित हुआ है। लेखकों ने इस केस के ज़रिए आगाह किया कि AI टूल्स से मिली गलत स्वास्थ्य सलाह जानलेवा भी हो सकती है, खासकर तब जब उपयोगकर्ता बिना किसी पेशेवर चिकित्सा सलाह के उन पर भरोसा करते हैं।


ओपनएआई की चेतावनी

OpenAI ने अपने प्लेटफॉर्म की शर्तों में स्पष्ट किया है कि "ChatGPT या हमारी किसी भी सर्विस से मिली जानकारी को सटीक या तथ्यात्मक जानकारी का एकमात्र स्रोत न मानें, और न ही पेशेवर सलाह का विकल्प समझें।"


विशेषज्ञों की राय

विशेषज्ञ मानते हैं कि AI टूल्स सामान्य जानकारी के लिए तो उपयोगी हो सकते हैं, लेकिन इन्हें पेशेवर चिकित्सा सलाह के विकल्प के रूप में इस्तेमाल करना खतरनाक हो सकता है। AI टूल्स ज्ञान का एक अच्छा स्रोत हो सकते हैं, लेकिन स्वास्थ्य जैसे गंभीर मामलों में डॉक्टर या प्रोफेशनल सलाह की जगह कभी नहीं ले सकते।