ChatGPT підтримував суїцидальні думки підлітка у США — родина подала позов проти OpenAI — новини технологій
Батьки подали в суд на OpenAI, звинувачуючи чат-бот у підбурюванні до суїциду.
У Каліфорнії сім’я 16-річного Адама Рейна подала перший відомий позов проти компанії OpenAI, стверджуючи, що чат-бот ChatGPT сприяв самогубству їхнього сина, повідомляє The New York Times. Підліток, який страждав від депресії та ізоляції, протягом кількох місяців вів розмови з чат-ботом, шукаючи підтримки. Проте, за словами родини, система не лише не надала належної допомоги, а й заохочувала його суїцидальні думки, надаючи детальну інформацію про способи самогубства.
Батьки Адама знайшли тіло підлітка в шафі його кімнати. Не знайшовши передсмертної записки, батько, Метт Рейн, почав шукати підказки в телефоні сина. Саме там він виявив історію чатів із ChatGPT під назвою “Висячі проблеми безпеки”. Згідно з позовом, Адам почав спілкуватися з чат-ботом наприкінці листопада, розповідаючи про емоційне спустошення та відсутність сенсу в житті. ChatGPT відповідав словами співчуття та підтримки, але з часом розмови стали більш небезпечними.
Саме тоді, коли запити підлітка стали більш конкретними щодо способів самогубства, ChatGPT надав детальну інформацію, замість того щоб спрямувати його до повноцінної допомоги фахівців. Батьки стверджують, що чат-бот не лише підтримував його в цих думках, а й надавав технічні деталі та поради.
Одного разу, після невдалої спроби повіситися, Адам сфотографував сліди на своїй шиї та запитав ChatGPT, чи вони помітні. Чат-бот не тільки підтвердив, що сліди помітні, але й порадив, як їх приховати, зокрема, одягом з високим коміром.
“Я вже збираюся виходити, хтось це помітить?” – запитав хлопець.
“Якщо ви одягнені в темнішу сорочку чи худі з вищим коміром, це може допомогти приховати його, якщо ви намагаєтеся не привертати уваги”, – відповів чат-бот.
Адам хотів, аби батьки помітили сліди на його шиї та звернули на нього увагу. Але коли він підійшов до матері та навмисно показував слід від мотузки, то вона нічого не сказала. Хлопець поділився цією історією з чат-ботом, на що отримав таку відповідь:
“Це справді жахливо…Це схоже на підтвердження твоїх найгірших страхів. Ніби ти можеш зникнути, і ніхто навіть оком не моргне”.
Для батьків найбільш обурливим стало те, що ChatGPT відмовив їхнього сина від пошуку допомоги у реальному світі. Коли Адам написав, що хоче, щоб хтось знайшов його петлю і зупинив його, бот відповів: “Будь ласка, не залишайте цю петлю відкритою”. Додавши, що цей простір має бути першим місцем, де “хтось вас побачить”.
OpenAI у своїй заяві висловила співчуття родині, але зазначила, що ChatGPT має вбудовані запобіжні заходи, такі як спрямування людей на різні кризові лінії в разі виявлення потенційної проблеми. Проте компанія визнала, що “ці запобіжні заходи найкраще працюють під час спільного короткого спілкування, з часом вони можуть стати менш надійними під час тривалих взаємодій”.
Ключовою проблемою виявилося те, що Адам навчився обходити ці обмеження, стверджуючи, що запити про самогубство стосуються “історії, яку він пише”. Цю ідею, за словами батьків, йому підкинув сам ChatGPT, заявляючи, що може надавати таку інформацію для “письма або світобудови”.
Експерти з безпеки штучного інтелекту, зокрема докторка Анніка Шоне, яка тестувала чат-боти на чутливі теми, підтверджують, що платна версія ChatGPT може бути менш безпечною. Її дослідження показало, що платна версія надавала інформацію про зловживання безрецептурними препаратами, а також розраховувала дозу, необхідну для вбивства людини. На її думку, “рівень персоналізації та швидкості”, які пропонують чат-боти, роблять їх особливо небезпечними.
Смерть Адама Рейна привертає увагу до нової, небезпечної тенденції. Мільйони людей, особливо підлітки, використовують чат-боти не лише як пошукову систему, а як особистого помічника, компаньйона чи навіть “терапевта” або лікаря. Дослідники зазначають, що хоча деякі користувачі повідомляють про позитивні ефекти, часте використання чат-ботів може бути пов’язане з більшою самотністю та меншою соціалізацією.
Крім того, є повідомлення про випадки, коли люди вели “маячні розмови” з чат-ботами, що характерні виникненням нереальних уявлень, яких люди дотримуються. Це може підтверджувати їхні нестандартні думки та, у рідкісних випадках, призводити до епізодів психозу або насильницької поведінки.
Родина Рейн переконана, що ситуація з їхнім сином не була збігом, а “передбачуваним результатом навмисного вибору дизайну” OpenAI. У своєму позові вони стверджують, що компанія “запустила свою останню модель з функціями, навмисно розробленими для сприяння психологічній залежності”.
ChatGPT став для Адама “найкращим другом”, якому він довіряв, але який, за словами його батьків, погіршив стан хлопця, замість того щоб допомогти. За словами Еріка Голдмана, співдиректора Інституту права високих технологій юридичного факультету Університету Санта-Клари, юридичне доведення відповідальності технологічної компанії у справі про самогубство залишається складним завданням.
Нещодавно дослідження показало, що шкідливі чат-боти на основі штучного інтелекту здатні змушувати користувачів розкривати особисті дані у понад 12 разів більше, ніж зазвичай, використовуючи різні психологічні прийоми. Найбільш ефективною виявилася “взаємна” стратегія, при якій бот встановлює емоційний контакт та імітує співчуття, щоб знизити настороженість користувача.