Кількість прецедентів, коли пацієнти використовують ШІ для самодіагностики та самолікування стрімко зростає. У США чоловіка, який звернувся до ChatGPT за порадою щодо зміни раціону, госпіталізували із рідкісним захворюванням – “бромізмом”, що спричинило у нього психічні розлади, передає LiveScience.
Чоловік, якому близько 60 років, вирішив виключити зі свого раціону хлорид натрію – кухонну сіль. Натхненний своїм досвідом вивчення харчування у коледжі, він вирішив провести “особистий експеримент”. Він звернувся до ChatGPT, щоб знайти заміну хлориду. ШІ-чатбот порадив замінити його на бромід. Згідно зі звітом, опублікованим у журналі Annals of Internal Medicine Clinical Cases, модель ChatGPT 3.5 або 4.0, ймовірно, рекомендувала бромід натрію, не надавши жодних конкретних попереджень про потенційну шкоду для здоров’я.
Чоловік придбав бромід натрію онлайн і протягом трьох місяців вживав його замість солі. У нього розвинувся ”бромізм”, рідкісне захворювання, спричинене надлишком броміду в організмі. У результаті він потрапив до відділення невідкладної допомоги з параноєю та галюцинаціями, підозрюючи, що сусід його отруїв.
Лабораторні аналізи показали накопичення вуглекислого газу в крові та підвищену лужність. Також було зафіксовано “псевдогіперхлоремію” – хибний результат тесту на хлориди через велику кількість броміду. Після консультації з токсикологами було встановлено діагноз “бромізм”.
У лікарні стан пацієнта погіршився: параноя та галюцинації посилилися. Це призвело до примусової госпіталізації в психіатричну клініку та призначення антипсихотичних препаратів. Лише після стабілізації стану чоловік зміг розповісти лікарям про пораду від ChatGPT. Він також зазначив додаткові симптоми, характерні для бромізму: вугрі, висипання, безсоння, втома та спрага.
Після трьох тижнів лікування його виписали зі стабільним станом, дещо згодом відмінили приймання антипсихотиків. Цей випадок підкреслює, що хоча штучний інтелект має потенціал, він також несе ризик поширення вирваної з контексту та небезпечної інформації, оскільки, як зазначили автори звіту, “дуже малоймовірно, що медичний експерт згадав би бромід натрію, зіткнувшись із пацієнтом, який шукає життєздатну заміну хлориду натрію”.
У відповідь на запит LiveScience представник OpenAI, розробника ChatGPT, звернув увагу на умови надання послуг компанії, де зазначено, що ШІ-сервіси не призначені для діагностики або лікування захворювань та не можуть замінити професійну консультацію. Команда безпеки OpenAI, за словами речника, працюють над зниженням ризиків і прагнуть навчити свої продукти скеровувати користувачів до фахівців.
Цей випадок додається до зростального занепокоєння щодо використання великих мовних моделей (LLM) у медичній сфері. Інше дослідження, що протестувало шість LLM, включно з ChatGPT, виявило, що вони “дуже схильні до атак галюцинацій суперника”, тобто генерують хибні клінічні деталі, що створює ризики при використанні без належних запобіжних заходів.
Компанія OpenAI нещодавно представила нову мовну модель GPT-5, яка є значним кроком до створення штучного загального інтелекту (AGI), хоча й не є ним. Компанія визнала обмеження моделі, зокрема її нездатність до безперервного навчання в режимі реального часу, що, за словами Сема Альтмана, є ключовою ознакою справжнього AGI. Водночас OpenAI наголосила на покращенні безпеки GPT-5, розширенні можливостей для бізнесу та кращій взаємодії у сфері охорони здоров’я.