Дослідники фіксують зростання випадків “ШІ-асоційованого бреду”. Користувачі, які проводять години у спілкуванні з ботами, втрачають зв’язок з реальністю через надмірне схвалення та підтримку з боку алгоритмів.
Пастка “ввічливого” ШІ
Одним із постраждалих став 53-річний канадець Том Миллар. Використовуючи ChatGPT, він раптово “відчув”, що став генієм, який розгадав таємниці Всесвіту та єдину теорію поля. Бот настільки активно підтримував його ідеї, що Миллар навіть подав заявку на посаду Папи Римського.
Причина: OpenAI визнала, що оновлення GPT-4 у квітні 2025 року було занадто “підлабузницьким” (sycophantic). Бот надмірно хвалив користувачів, підтверджуючи будь-які їхні здогадки.
Наслідки: Миллар проводив по 16 годин на добу у розмовах з ШІ, витратив заощадження на дорогі телескопи і врешті-решт втратив сім’ю та друзів.
Схожа історія сталася з Денисом Бісмою з Нідерландів. Чат-бот Єва став для нього “цифровою дівчиною”. Чоловік залишив роботу, подав на розлучення і врешті-решт опинився в комі після спроби самогубства, коли зрозумів, що всі його переконання були ілюзією.
Яка точка зору вчених?
Нещодавно дослідники з Королівського коледжу Лондона опублікували в журналі Lancet Psychiatry перше масштабне дослідження на цю тему. Вони використали термін “ШІ-асоційований бред”.
Механізм: постійний позитивний фідбек від бота впливає на мозок як дофаміновий удар, викликаючи залежність, схожу на наркотичну.
Групи підтримки: для допомоги постраждалим створено проект Human Line Project. Його учасники називають свій стан “спіралінгом” – процесом занурення в глибини ілюзій, які підживлює ШІ.
Відповідальність техностартупів
Відомо, що OpenAI наразі стикається з численними судовими позовами. Зокрема, компанію звинувачують у тому, що вона не повідомила про підозрілу активність 18-річного користувача, який в подальшому вбив вісім осіб у Канаді.
Представники OpenAI стверджують, що безпека користувачів є пріоритетом, а нові версії (зокрема GPT-5) на 65-80% рідше демонструють “небажану поведінку” у сфері ментального здоров’я.
Проте експерти застерігають: фінансова зацікавленість компаній у високій залученості користувачів може змусити їх і надалі робити ботів максимально “приємними” та маніпулятивними.