ChatGPT ਬਣ ਗਿਆ ਜਾਨ ਦਾ ਦੁਸ਼ਮਣ, ਬਣਾ ਦਿੱਤਾ ਮਰੀਜ਼

ਉਸਨੇ AI ਦੇ ਕਹਿਣ 'ਤੇ ਆਪਣੀ ਖੁਰਾਕ ਵਿੱਚੋਂ ਲੂਣ (sodium chloride) ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਘਟਾ ਦਿੱਤਾ ਸੀ, ਜਿਸ ਨਾਲ ਉਸਦੇ ਸਰੀਰ ਵਿੱਚ ਸੋਡੀਅਮ ਦਾ ਪੱਧਰ ਖ਼ਤਰਨਾਕ ਹੱਦ ਤੱਕ ਘੱਟ ਹੋ ਗਿਆ।

By :  Gill
Update: 2025-08-10 07:47 GMT

ਜੇਕਰ ਤੁਸੀਂ ਵੀ ਫਿਟਨੈਸ ਜਾਂ ਸਿਹਤ ਸਬੰਧੀ ਜਾਣਕਾਰੀ ਲਈ ChatGPT ਜਾਂ ਹੋਰ AI ਚੈਟਬੋਟਸ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋ, ਤਾਂ ਸਾਵਧਾਨ ਰਹੋ। ਨਿਊਯਾਰਕ ਵਿੱਚ ਇੱਕ 60 ਸਾਲਾ ਵਿਅਕਤੀ ਨੂੰ ChatGPT ਦੀ ਸਲਾਹ ਮੰਨਣ ਤੋਂ ਬਾਅਦ ਹਸਪਤਾਲ ਵਿੱਚ ਦਾਖਲ ਕਰਵਾਉਣਾ ਪਿਆ। ਉਸਨੇ AI ਦੇ ਕਹਿਣ 'ਤੇ ਆਪਣੀ ਖੁਰਾਕ ਵਿੱਚੋਂ ਲੂਣ (sodium chloride) ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਘਟਾ ਦਿੱਤਾ ਸੀ, ਜਿਸ ਨਾਲ ਉਸਦੇ ਸਰੀਰ ਵਿੱਚ ਸੋਡੀਅਮ ਦਾ ਪੱਧਰ ਖ਼ਤਰਨਾਕ ਹੱਦ ਤੱਕ ਘੱਟ ਹੋ ਗਿਆ, ਜਿਸ ਨੂੰ ਹਾਈਪੋਨੇਟ੍ਰੀਮੀਆ ਕਿਹਾ ਜਾਂਦਾ ਹੈ।

ਸਲਾਹ ਅਤੇ ਇਸਦੇ ਖਤਰਨਾਕ ਨਤੀਜੇ

ਉਸ ਵਿਅਕਤੀ ਨੇ ChatGPT ਤੋਂ ਪੁੱਛਿਆ ਸੀ ਕਿ ਉਹ ਆਪਣੀ ਖੁਰਾਕ ਵਿੱਚੋਂ ਲੂਣ ਨੂੰ ਕਿਵੇਂ ਖਤਮ ਕਰ ਸਕਦਾ ਹੈ। AI ਨੇ ਉਸਨੂੰ ਸੋਡੀਅਮ ਕਲੋਰਾਈਡ (ਨਮਕ) ਦੀ ਬਜਾਏ ਸੋਡੀਅਮ ਬ੍ਰੋਮਾਈਡ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੀ ਸਲਾਹ ਦਿੱਤੀ, ਜਿਸ ਨੂੰ ਅੱਜਕੱਲ੍ਹ ਜ਼ਹਿਰੀਲਾ ਮੰਨਿਆ ਜਾਂਦਾ ਹੈ। ਇਸ ਸਲਾਹ 'ਤੇ ਅਮਲ ਕਰਦਿਆਂ, ਉਸ ਵਿਅਕਤੀ ਨੇ ਤਿੰਨ ਮਹੀਨਿਆਂ ਤੱਕ ਇਸਦੀ ਵਰਤੋਂ ਕੀਤੀ, ਜਿਸ ਕਾਰਨ ਉਸ ਨੂੰ ਭਰਮ, ਪੈਰਾਨੋਆ ਅਤੇ ਬਹੁਤ ਜ਼ਿਆਦਾ ਪਿਆਸ ਵਰਗੇ ਲੱਛਣ ਹੋਣ ਲੱਗ ਪਏ। ਹਸਪਤਾਲ ਵਿੱਚ ਡਾਕਟਰਾਂ ਨੇ ਉਸਨੂੰ ਬ੍ਰੋਮਾਈਡ ਜ਼ਹਿਰੀਲੇਪਣ (Bromide toxicity) ਦਾ ਸ਼ਿਕਾਰ ਪਾਇਆ। ਲਗਭਗ ਤਿੰਨ ਹਫ਼ਤਿਆਂ ਦੇ ਇਲਾਜ ਤੋਂ ਬਾਅਦ ਉਸਦੀ ਹਾਲਤ ਵਿੱਚ ਸੁਧਾਰ ਹੋਇਆ।

AI ਦੀ ਵਰਤੋਂ ਬਾਰੇ ਚੇਤਾਵਨੀ

ਇਹ ਮਾਮਲਾ, ਜੋ ਕਿ ਜਰਨਲ ਆਫ਼ ਦ ਅਮੈਰੀਕਨ ਕਾਲਜ ਆਫ਼ ਫਿਜ਼ੀਸ਼ੀਅਨਜ਼ ਵਿੱਚ ਪ੍ਰਕਾਸ਼ਿਤ ਹੋਇਆ ਹੈ, ਪੇਸ਼ੇਵਰ ਨਿਗਰਾਨੀ ਤੋਂ ਬਿਨਾਂ AI ਦੁਆਰਾ ਦਿੱਤੀ ਗਈ ਸਿਹਤ ਸਲਾਹ ਦੀ ਪਾਲਣਾ ਕਰਨ ਦੇ ਖਤਰਿਆਂ ਨੂੰ ਉਜਾਗਰ ਕਰਦਾ ਹੈ। ChatGPT ਦੇ ਡਿਵੈਲਪਰ, ਓਪਨਏਆਈ (OpenAI), ਵੀ ਆਪਣੀਆਂ ਨਿਯਮਾਂ ਅਤੇ ਸ਼ਰਤਾਂ ਵਿੱਚ ਸਪੱਸ਼ਟ ਤੌਰ 'ਤੇ ਕਹਿੰਦੇ ਹਨ ਕਿ AI ਤੋਂ ਪ੍ਰਾਪਤ ਹੋਈ ਜਾਣਕਾਰੀ ਨੂੰ ਸੱਚ ਜਾਂ ਪੇਸ਼ੇਵਰ ਸਲਾਹ ਦਾ ਇਕਮਾਤਰ ਸਰੋਤ ਨਹੀਂ ਮੰਨਿਆ ਜਾਣਾ ਚਾਹੀਦਾ। ਮਾਹਿਰਾਂ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ AI ਟੂਲ ਆਮ ਜਾਣਕਾਰੀ ਲਈ ਤਾਂ ਲਾਭਦਾਇਕ ਹੋ ਸਕਦੇ ਹਨ, ਪਰ ਡਾਕਟਰੀ ਸਲਾਹ ਲਈ ਹਮੇਸ਼ਾ ਯੋਗ ਡਾਕਟਰ ਨਾਲ ਹੀ ਸੰਪਰਕ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ।

Tags:    

Similar News