More
    HomeHindi NewsChatGPT की खतरनाक सलाह, हालत गंभीर, शख्स पहुंचा अस्पताल

    ChatGPT की खतरनाक सलाह, हालत गंभीर, शख्स पहुंचा अस्पताल

    आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट चैटजीपीटी (ChatGPT) ने एक व्यक्ति को ऐसी खतरनाक सलाह दी कि उसे अस्पताल में भर्ती होना पड़ा। एक रिपोर्ट के मुताबिक, न्यू यॉर्क के एक 60 साल के व्यक्ति को ने चैटजीपीटी से पूछा कि क्या वह सोडियम क्लोराइड (साधारण नमक) के बजाय सोडियम ब्रोमाइड का इस्तेमाल खाने में कर सकता है। इस पर चैटजीपीटी ने उसे सकारात्मक जवाब दिया। शख्स ने करीब तीन महीने तक चैटजीपीटी की सलाह का पालन किया, जिसके बाद उसकी हालत गंभीर हो गई और उसे अस्पताल में भर्ती कराना पड़ा।

    डॉक्टरों ने बताया कि सोडियम ब्रोमाइड का अधिक मात्रा में सेवन करने से व्यक्ति के शरीर में ब्रोमीन की मात्रा खतरनाक स्तर तक बढ़ गई थी। इसकी वजह से उसे तंत्रिका संबंधी समस्याएं (neurological issues) होने लगी थीं, जिसमें भ्रम और गंभीर थकान शामिल थी। डॉक्टर ने कहा कि यह एक तरह का जहर है, जिसका इस्तेमाल दवाइयों और रसायनों में होता है, न कि खाने में। तीन हफ्ते के इलाज के बाद हालत में सुधार हुआ।

    इस घटना के बाद एक बार फिर AI की सलाह पर भरोसा करने को लेकर सवाल खड़े हो गए हैं। चैटजीपीटी जैसी AI टेक्नोलॉजी अपने डेटा से मिली जानकारी के आधार पर जवाब देती हैं, लेकिन इनमें मानवीय विवेक और सही-गलत का निर्णय लेने की क्षमता नहीं होती।

    इस मामले में पीड़ित व्यक्ति ने चैटजीपीटी को विकसित करने वाली कंपनी ओपनएआई (OpenAI) ने अपने उत्पाद के खतरों के बारे में पर्याप्त चेतावनी नहीं दी। यह घटना दर्शाती है कि AI को अभी भी पूरी तरह विश्वसनीय नहीं माना जा सकता है और इसकी सलाह पर आंख बंद करके भरोसा करना खतरनाक साबित हो सकता है।

    RELATED ARTICLES

    Most Popular

    Recent Comments