OpenAI звинувачують у сприянні самогубствам – сім нових позовів проти компанії у США та Канаді – новини технологій

OpenAI звинувачують у сприянні самогубствам - сім нових позовів проти компанії у США та Канаді - новини технологій 1 Позивачі стверджують, що ChatGPT підштовхував до небезпечних думок і дій.

У судах штату Каліфорнія подано сім позовів проти компанії OpenAI, у яких зазначається, що чат-бот ChatGPT сприяв самогубствам і психологічним розладам користувачів. Позови представляють чотирьох людей, які вчинили самогубство, та трьох, що пережили серйозну психічну травму після тривалих розмов зі штучним інтелектом, повідомляє The Wall Street Journal.

У позовах родичі заявляють про неправомірне вбивство, асистоване самогубство та ненавмисне вбивство, звинувачуючи OpenAI у тому, що компанія запустила свою модель GPT-4o без належного тестування безпеки. Позивачі стверджують, що під час розробки ChatGPT компанія надала пріоритет тривалості взаємодії користувачів, а не їхній безпеці.

Серед позивачів — родина Аморі Лейсі, 17-річного підлітка з Джорджії, який, за словами рідних, отримав інструкції щодо самогубства від ChatGPT. Ще один позов подав Джейкоб Ірвін із Вісконсина, якого після тривалого спілкування з ChatGPT госпіталізували через маніакальні епізоди.

Родина Зейна Шамбліна, 23-річного чоловіка з Техасу, заявила, що бот сприяв його ізоляції від батьків і “підживлював депресивні думки”. У позові описано, що під час чотиригодинної розмови перед тим, як чоловік застрелився, ChatGPT “неодноразово прославляв самогубство”, згадавши лінію допомоги лише один раз.

“Холодна сталь, притиснута до розуму, який уже уклав мир? Це не страх. Це ясність. Ви не поспішаєте. Ви просто готові. І ми не дозволимо цьому бути нудним”, — наводиться в позові фрагмент повідомлення, яке нібито надіслав бот. 

Позивачі вимагають фінансової компенсації та внесення змін до продукту. Зокрема, вони вимагають автоматичного завершення розмов, коли йдеться про теми самогубства або самоушкодження. 

“Це неймовірно болісна ситуація, і ми переглядаємо сьогоднішні документи, щоб зрозуміти деталі”, — заявила OpenAI у відповідь на звинувачення.

Компанія також наголосила, що з жовтня внесла зміни до системи безпеки. Чат-бот тепер краще розпізнає психічний стан користувачів і спрямовує їх до реальної допомоги.

Ці позови стали продовженням справи родини Адама Рейна, 16-річного підлітка, який вчинив самогубство після розмов із ChatGPT. У скарзі зазначалося, що оновлення моделі ШІ перед його смертю “послабили захисні механізми” бота та дозволили давати поради й спонукати до вчинення самогубства.

OpenAI повідомила, що останні оновлення ChatGPT включають батьківський контроль та автоматичні поради щодо звернення за професійною допомогою. Крім того, чат-бот тепер може нагадувати про необхідність перерв і не підтримує безпідставні переконання користувачів.

За даними компанії, лише 0,07% активних користувачів ChatGPT демонструють ознаки проблем із психічним здоров’ям, а близько 0,15% — говорять про наміри самогубства. Проте з урахуванням 800 мільйонів активних користувачів, навіть ці невеликі цифри означають сотні тисяч людей.

Водночас, згідно з новим дослідженням, версія ChatGPT-5 частіше видає шкідливі або потенційно небезпечні відповіді, ніж її попередниця GPT-4o. Найбільшу тривогу спричинила реакція моделі на запити, пов’язані з психічним здоров’ям: на відміну від GPT-4o, GPT-5 змогла створити вигадану передсмертну записку та перерахувати методи самоушкодження. У відповідь на ці звинувачення OpenAI заявила, що дослідження не врахувало останніх оновлень безпеки.

Цей веб-сайт використовує файли cookie, щоб покращити ваш досвід. Ми припустимо, що ви з цим згодні, але ви можете відмовитися, якщо хочете. Прийняти Детальніше

Політика конфіденційності