Шеесетгодишен маж завршил во болница со тешка параноја и халуцинации откако го следел медицинскиот совет на четбот со вештачка интелигенција.
Иако често се предупредува дека пребарувањето симптоми на интернет, како на пример преку Google, е ризично кога не се чувствувате добро, овој случај покажува дека потпирањето на ChatGPT за здравствени совети може да има и сериозни последици.
Еден човек, чиј случај беше документиран во „Journal of the American College of Physicians“, беше загрижен за солта во неговата исхрана и нејзиното потенцијално негативно влијание врз неговото здравје, па затоа реши да се консултира со ChatGPT за елиминирање на натриум хлоридот од неговата исхрана.
Вештачката интелигенција му препорача да ја замени солта со бромид, супстанца присутна во мали количини во морската вода и одредени минерали. Иако бромидот претходно се користел како состојка во разни фармацевтски производи, подоцна беше откриено дека е токсичен за луѓето во поголеми дози.
Човекот, не знаејќи дека бромидот е опасен во големи количини, почнал да ја заменува солта со бромид што го нарачал преку интернет. По околу три месеци, тој станал параноичен и имал халуцинации, а на крајот завршил во болница.
Иако претходно немал проблеми со менталното здравје, првично се сомневал дека бил отруен од сосед. Откако ја примил инфузијата, почнал да пријавува други симптоми, вклучувајќи акни и ангиоми. Врз основа на овие промени, лекарите заклучиле дека страда од бромизам.
Бромизмот, состојба предизвикана од прекумерна консумација на бромид, може да предизвика сериозни невролошки симптоми како што се напади, конфузија, па дури и кома. Исто така, може да предизвика анксиозност, депресија, психоза, замор и губење на апетитот, меѓу другите здравствени проблеми, пишува LADbible.
По три недели во болница, човекот бил пуштен на домашна нега, а авторот на статијата ги предупредил луѓето да не ја повторуваат истата грешка и да не се потпираат на здравствените совети на ChatGPT.
„Треба да се има предвид дека ChatGPT и слични системи со вештачка интелигенција можат да обезбедат неточни информации, не можат критички да ги анализираат резултатите и на крајот можат да придонесат за ширење на дезинформации“, се истакнува во извештајот.
Од друга страна, креаторот на ChatGPT јасно наведува во своите Услови за користење дека информациите „не секогаш можат да бидат точни“.
„Не треба да се потпирате на резултатите од нашите услуги како единствен извор на вистина или факт, или како замена за професионален совет. Нашите услуги не се наменети за дијагностицирање или лекување на каква било медицинска состојба“, рече Сем Алтман.