امریکا میں ایک 60 سالہ شخص کے ساتھ ایک عجیب واقعہ پیش آیا، جس نے لوگوں کو خبردار کر دیا ہے کہ صحت سے متعلق معلومات کے لیے ChatGPT جیسے چیٹ بوٹس پر اندھا دھند بھروسہ نہ کریں۔
کہانی کچھ یوں ہے کہ یہ شخص ٹیبل سالٹ (عام نمک) کے نقصانات کے بارے میں پڑھ رہا تھا۔ اس نے سوچا کہ کلورائیڈ اپنی خوراک سے نکال دینا چاہیے، تو اس نے ChatGPT سے مشورہ لیا کہ نمک کے بجائے کیا استعمال کیا جا سکتا ہے۔ جواب میں برومائیڈ (Sodium Bromide) کا ذکر آیا۔ اس نے یہ بات نظرانداز کر دی کہ یہ چیز زیادہ تر صفائی یا پرانے زمانے میں دوا کے طور پر استعمال ہوتی تھی۔ اس نے تین مہینے تک برومائیڈ کھانا شروع کر دیا۔
کچھ وقت بعد اس کی طبیعت بگڑنے لگی۔ اسے پیاس بہت لگتی، نیند نہیں آتی اور چہرے پر دانے نکل آئے۔ دماغی حالت بھی متاثر ہوئی اور وہ شکوک و شبہات میں مبتلا ہو گیا۔ اسپتال پہنچا تو ڈاکٹروں کو شک ہوا کہ شاید کسی نے اسے زہر دے دیا ہے، مگر اصل وجہ نکلی "برومزم" یعنی برومائیڈ کا زہریلا اثر۔
ماہرین کا کہنا ہے کہ اگر یہ شخص کسی ڈاکٹر سے مشورہ کرتا تو شاید کبھی ایسا نہ ہوتا۔ رپورٹ میں لکھا گیا ہے کہ اے آئی چیٹ بوٹس کبھی کبھار نامکمل یا غلط معلومات دے سکتے ہیں، اور وہ یہ نہیں پوچھتے کہ آپ یہ مشورہ کیوں مانگ رہے ہیں، جیسا کہ ایک ڈاکٹر پوچھتا ہے۔
یہ واقعہ اس وقت کا ہے جب ChatGPT کا پرانا ورژن استعمال ہو رہا تھا۔ کمپنی نے اب نیا ورژن (GPT-5) جاری کیا ہے، جو صحت کے بارے میں زیادہ بہتر اور احتیاط سے جواب دیتا ہے، لیکن پھر بھی یہ ڈاکٹر کا متبادل نہیں ہے۔
آخر میں ڈاکٹرز نے کہا کہ مریضوں سے علاج کے دوران یہ جانچنا بھی ضروری ہو گیا ہے کہ وہ اپنی معلومات کہاں سے لا رہے ہیں کیونکہ کبھی کبھار ایک غلط سرچ یا چیٹ بھی بڑی مشکل پیدا کر سکتی ہے۔