Begin typing your search above and press return to search.

ChatGPT ਬਣ ਗਿਆ ਜਾਨ ਦਾ ਦੁਸ਼ਮਣ, ਬਣਾ ਦਿੱਤਾ ਮਰੀਜ਼

ਉਸਨੇ AI ਦੇ ਕਹਿਣ 'ਤੇ ਆਪਣੀ ਖੁਰਾਕ ਵਿੱਚੋਂ ਲੂਣ (sodium chloride) ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਘਟਾ ਦਿੱਤਾ ਸੀ, ਜਿਸ ਨਾਲ ਉਸਦੇ ਸਰੀਰ ਵਿੱਚ ਸੋਡੀਅਮ ਦਾ ਪੱਧਰ ਖ਼ਤਰਨਾਕ ਹੱਦ ਤੱਕ ਘੱਟ ਹੋ ਗਿਆ।

ChatGPT ਬਣ ਗਿਆ ਜਾਨ ਦਾ ਦੁਸ਼ਮਣ, ਬਣਾ ਦਿੱਤਾ ਮਰੀਜ਼
X

GillBy : Gill

  |  10 Aug 2025 1:17 PM IST

  • whatsapp
  • Telegram

ਜੇਕਰ ਤੁਸੀਂ ਵੀ ਫਿਟਨੈਸ ਜਾਂ ਸਿਹਤ ਸਬੰਧੀ ਜਾਣਕਾਰੀ ਲਈ ChatGPT ਜਾਂ ਹੋਰ AI ਚੈਟਬੋਟਸ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋ, ਤਾਂ ਸਾਵਧਾਨ ਰਹੋ। ਨਿਊਯਾਰਕ ਵਿੱਚ ਇੱਕ 60 ਸਾਲਾ ਵਿਅਕਤੀ ਨੂੰ ChatGPT ਦੀ ਸਲਾਹ ਮੰਨਣ ਤੋਂ ਬਾਅਦ ਹਸਪਤਾਲ ਵਿੱਚ ਦਾਖਲ ਕਰਵਾਉਣਾ ਪਿਆ। ਉਸਨੇ AI ਦੇ ਕਹਿਣ 'ਤੇ ਆਪਣੀ ਖੁਰਾਕ ਵਿੱਚੋਂ ਲੂਣ (sodium chloride) ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਘਟਾ ਦਿੱਤਾ ਸੀ, ਜਿਸ ਨਾਲ ਉਸਦੇ ਸਰੀਰ ਵਿੱਚ ਸੋਡੀਅਮ ਦਾ ਪੱਧਰ ਖ਼ਤਰਨਾਕ ਹੱਦ ਤੱਕ ਘੱਟ ਹੋ ਗਿਆ, ਜਿਸ ਨੂੰ ਹਾਈਪੋਨੇਟ੍ਰੀਮੀਆ ਕਿਹਾ ਜਾਂਦਾ ਹੈ।

ਸਲਾਹ ਅਤੇ ਇਸਦੇ ਖਤਰਨਾਕ ਨਤੀਜੇ

ਉਸ ਵਿਅਕਤੀ ਨੇ ChatGPT ਤੋਂ ਪੁੱਛਿਆ ਸੀ ਕਿ ਉਹ ਆਪਣੀ ਖੁਰਾਕ ਵਿੱਚੋਂ ਲੂਣ ਨੂੰ ਕਿਵੇਂ ਖਤਮ ਕਰ ਸਕਦਾ ਹੈ। AI ਨੇ ਉਸਨੂੰ ਸੋਡੀਅਮ ਕਲੋਰਾਈਡ (ਨਮਕ) ਦੀ ਬਜਾਏ ਸੋਡੀਅਮ ਬ੍ਰੋਮਾਈਡ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੀ ਸਲਾਹ ਦਿੱਤੀ, ਜਿਸ ਨੂੰ ਅੱਜਕੱਲ੍ਹ ਜ਼ਹਿਰੀਲਾ ਮੰਨਿਆ ਜਾਂਦਾ ਹੈ। ਇਸ ਸਲਾਹ 'ਤੇ ਅਮਲ ਕਰਦਿਆਂ, ਉਸ ਵਿਅਕਤੀ ਨੇ ਤਿੰਨ ਮਹੀਨਿਆਂ ਤੱਕ ਇਸਦੀ ਵਰਤੋਂ ਕੀਤੀ, ਜਿਸ ਕਾਰਨ ਉਸ ਨੂੰ ਭਰਮ, ਪੈਰਾਨੋਆ ਅਤੇ ਬਹੁਤ ਜ਼ਿਆਦਾ ਪਿਆਸ ਵਰਗੇ ਲੱਛਣ ਹੋਣ ਲੱਗ ਪਏ। ਹਸਪਤਾਲ ਵਿੱਚ ਡਾਕਟਰਾਂ ਨੇ ਉਸਨੂੰ ਬ੍ਰੋਮਾਈਡ ਜ਼ਹਿਰੀਲੇਪਣ (Bromide toxicity) ਦਾ ਸ਼ਿਕਾਰ ਪਾਇਆ। ਲਗਭਗ ਤਿੰਨ ਹਫ਼ਤਿਆਂ ਦੇ ਇਲਾਜ ਤੋਂ ਬਾਅਦ ਉਸਦੀ ਹਾਲਤ ਵਿੱਚ ਸੁਧਾਰ ਹੋਇਆ।

AI ਦੀ ਵਰਤੋਂ ਬਾਰੇ ਚੇਤਾਵਨੀ

ਇਹ ਮਾਮਲਾ, ਜੋ ਕਿ ਜਰਨਲ ਆਫ਼ ਦ ਅਮੈਰੀਕਨ ਕਾਲਜ ਆਫ਼ ਫਿਜ਼ੀਸ਼ੀਅਨਜ਼ ਵਿੱਚ ਪ੍ਰਕਾਸ਼ਿਤ ਹੋਇਆ ਹੈ, ਪੇਸ਼ੇਵਰ ਨਿਗਰਾਨੀ ਤੋਂ ਬਿਨਾਂ AI ਦੁਆਰਾ ਦਿੱਤੀ ਗਈ ਸਿਹਤ ਸਲਾਹ ਦੀ ਪਾਲਣਾ ਕਰਨ ਦੇ ਖਤਰਿਆਂ ਨੂੰ ਉਜਾਗਰ ਕਰਦਾ ਹੈ। ChatGPT ਦੇ ਡਿਵੈਲਪਰ, ਓਪਨਏਆਈ (OpenAI), ਵੀ ਆਪਣੀਆਂ ਨਿਯਮਾਂ ਅਤੇ ਸ਼ਰਤਾਂ ਵਿੱਚ ਸਪੱਸ਼ਟ ਤੌਰ 'ਤੇ ਕਹਿੰਦੇ ਹਨ ਕਿ AI ਤੋਂ ਪ੍ਰਾਪਤ ਹੋਈ ਜਾਣਕਾਰੀ ਨੂੰ ਸੱਚ ਜਾਂ ਪੇਸ਼ੇਵਰ ਸਲਾਹ ਦਾ ਇਕਮਾਤਰ ਸਰੋਤ ਨਹੀਂ ਮੰਨਿਆ ਜਾਣਾ ਚਾਹੀਦਾ। ਮਾਹਿਰਾਂ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ AI ਟੂਲ ਆਮ ਜਾਣਕਾਰੀ ਲਈ ਤਾਂ ਲਾਭਦਾਇਕ ਹੋ ਸਕਦੇ ਹਨ, ਪਰ ਡਾਕਟਰੀ ਸਲਾਹ ਲਈ ਹਮੇਸ਼ਾ ਯੋਗ ਡਾਕਟਰ ਨਾਲ ਹੀ ਸੰਪਰਕ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ।

Next Story
ਤਾਜ਼ਾ ਖਬਰਾਂ
Share it