By Kusum | Aug 10, 2025
अगर आप भी चैटजीपीट पर जरूरत से ज्यादा भरोसा करते हैं तो संभल जाएं। ChatGPT और AI चैटबॉट से फिटनेस टिप्स या डाइट प्लान लेते हैं तो सावधान होने का समय आ गया है। एआई से ली गई स्वास्थ्य संबंधी सलाह जान को खतरे में भी डाल सकती है। दरअसल, चैटजीपीटी की सलाह ने एक शख्स को अस्पताल पहुंचा दिया है। एक रिपोर्ट के अनुसार, न्यूयॉर्क में एक 60 वर्षीय व्यक्ति को उस समय अस्पताल में भर्ती होना पड़ा जब उसने चैटजीपीटी द्वारा बताए गए भोजन से नमक कम करने के सख्त नियम का पालन किया।
बता दें कि, डॉक्टरों के अनुसार उस व्यक्ति ने कई हफ्तों तक अपने आहार में सोडियम की मात्रा अचानक लगभग शून्य कर दी, जिससे सोडियम का स्तर खतरनाक रूप से कम हो गया, जिसे हाइपोनेट्रेमिया कहा जाता है। उसके परिवार ने कहा कि उसने चिकित्सक से परामर्श किए बिना ही एआई जनरेटेड हेल्थ प्लान पर भरोसा किया।
हाल ही में अमेरिकन कॉलेज ऑफ फिजिशियन जर्नल में पल्बिश ये मामला, प्रोफेशनल निगरानी के बिना एआई जनरेटेड हेल्थ एडवाइज को फॉलो करने के जोखि को उजागर करता है। खासकर जब इसमें सोडियम जैसे जरूरी पोषक तत्व शामिल हों। राहत की ये है कि अस्तपाल में करीब तीन हफ्ते बिताने के बाद वह व्यक्ति ठीक हो गया। लेकिन इस मामले में चैटजीपीटी की विश्वसनीयता पर सवाल उठने लगे हैं।