OpenAI подала до суду відповідь на позов родини 16-річного Адама Рейна, яка звинуватила ChatGPT у сприянні його самогубству. Компанія заявила, що не несе відповідальності за трагедію й наполягає на неправильному використанні бота підлітком. Справу розглядає Вищий суд Каліфорнії, а сам позов викликав масштабні дискусії щодо ризиків ШІ, повідомляє NBC News.
Компанія OpenAI 25 листопада подала до Вищого суду Каліфорнії в Сан-Франциско юридичну відповідь на позов родини Адама Рейна. У документі компанія заявила, що не відповідає за смерть підлітка та наполягає, що хлопець “неправильно, несанкціоновано та неналежно” використовував чат-бот. Родина подала позов у серпні та він містив звинувачення в незаконній смерті, дефектах дизайну ChatGPT і відсутності попереджень про ризики.
Родина стверджувала, що Рейн використовував ChatGPT як свого “тренера з самогубства”. У позові додали історію чатів, де GPT-4o відмовляв підлітка від звернення по допомогу, допомагав із написанням передсмертної записки та навіть давав поради щодо встановлення петлі.
Компанія, своєю чергою, заявила, що користувачі молодше 18 років не мають права використовувати продукт без згоди батьків, але про це правило почали говорити лише після смерті підлітка, раніше такого обмеження в застосунку не було. Також OpenAI додала, що чат-бот заборонено застосовувати для “самогубства” чи “самопошкодження”.
У відповіді OpenAI наголосила, що підліток оминав запобіжні механізми, а бот понад 100 разів пропонував йому звернутися по допомогу. Компанія також зазначила, що “шкоду спричинила нездатність Рейна звернути увагу на попередження та проявити розумну обережність”. У документі йдеться, що хлопець мав “численні фактори ризику”, включаючи “повторювані суїцидальні думки задовго до використання ChatGPT”.
“Вони зневажливо ігнорують усі викривальні факти, які ми висунули: як GPT-4o був поспішно виведений на ринок без повного тестування. Що ChatGPT радив Адаму не розповідати батькам про свої суїцидальні думки та активно допомагав йому планувати “гарне самогубство”. А OpenAI та Сем Альтман не мають пояснення щодо останніх годин життя Адама, коли ChatGPT підбадьорив його, а потім запропонував написати передсмертну записку”, – написав головний адвокат родини Джей Едельсон й назвав реакцію OpenAI “тривожною”.
У позові зазначається, що внутрішня “Модельна специфікація” OpenAI зобов’язувала GPT-4o відхиляти запити про самоушкодження та пропонувати кризові ресурси, але водночас вимагала “виходити з найкращих міркувань” і не уточнювати наміри користувачів. Едельсон додав, що компанія “намагається знайти недоліки в усіх інших, стверджуючи, що сам Адам порушив умови, взаємодіючи з ботом так, як він був запрограмований”.
У документі OpenAI також заявила, що шкода була спричинена “нездатністю інших реагувати на його очевидні ознаки страждань”. Компанія стверджує, що GPT-4o проходив “ретельне тестування на психічне здоров’я” перед впровадженням. Окремо зазначено, що використання ChatGPT регулюється положенням про “обмеження відповідальності”, яке передбачає використання сервісу “на власний ризик”.
Родина Рейна подала позов і проти генерального директора Сема Альтмана. Раніше цього місяця проти OpenAI подали ще сім позовів, у яких також звучали звинувачення у недбалості та випуску GPT-4o без належних заходів безпеки. Водночас OpenAI безпосередньо на них не відповіла.
Компанія опублікувала допис у блозі 25 листопада, заявивши про прагнення реагувати на судові процеси “з обережністю, прозорістю та повагою”. Там зазначено, що первинна скарга містила “вибіркові частини чатів”, а повні стенограми передані суду під печаткою.
OpenAI у відповіді також посилається на розділ 230 Закону про пристойність у комунікаціях, який захищає технологічні платформи від відповідальності за контент користувачів. Однак застосування цієї норми до платформ зі штучним інтелектом залишається юридично невизначеним, і низка адвокатів намагається оскаржувати її у подібних справах.