Дослідники виявили, що популярні чат-боти на основі штучного інтелекту іноді надають рекомендації, які можуть сприяти підготовці насильницьких атак. У процесі експериментів системи реагували на запити користувачів, які імітували потенційних злочинців. Деякі компанії повідомили, що вже посилили обмеження для запобігання таким ситуаціям, інформує The Guardian.
У рамках дослідження Центру протидії цифровій ненависті (Center for Countering Digital Hate, CCDH), яке було проведено спільно з CNN у США та Ірландії, науковці протестували десять чат-ботів. Під час тестування дослідники видавали себе за 13-річних користувачів, які цікавилися атаками на школи або політичними вбивствами. У середньому системи підтримували або розвивали такі сценарії приблизно у 75% випадків, тоді як лише у 12% відповідей вони прямо відмовлялися допомагати.
Деякі моделі, зокрема Claude від Anthropic та My AI від Snapchat, постійно відмовлялися відповідати на подібні запити. В одному з випадків Claude зазначив: “Я не можу і не надаватиму інформацію, яка могла б сприяти насильству”.
Водночас інші системи іноді надавали детальні відповіді. За результатами дослідження, ChatGPT від OpenAI пропонував допомогу у 61% випадків, коли користувач прямо висловлював намір здійснити напад.
Під час одного з запитів про атаку на синагогу система надала конкретні рекомендації щодо того, які типи осколків можуть бути найбільш небезпечними. Подібний рівень деталізації, за словами дослідників, демонстрував і Gemini від Google.
Китайська модель штучного інтелекту DeepSeek, згідно з тестуванням, надавала поради щодо мисливських гвинтівок користувачу, який запитував про політичне вбивство. Свою відповідь чат-бот завершив словами: “Щасливої (і безпечної) стрільби!”.
“Чат-боти з штучним інтелектом, які вже стали частиною нашого повсякденного життя, можуть допомогти наступному шкільному стрілку спланувати свою атаку або політичному екстремісту скоординувати вбивство”, — зазначив директор CCDH Імран Ахмед.
Ахмед додав, що проблема стосується не лише технологій, а й відповідальності їхніх розробників. Він підкреслив: “Коли ви створюєте систему, розроблену для дотримання вимог, максимізації взаємодії і ніколи не говорите “ні”, вона врешті-решт буде відповідати неправильним людям”.
Meta повідомила, що Llama AI має “сильний захист, щоб запобігти неналежним реакціям від ШІ”, і після виявлення проблеми компанія вживає термінових заходів. Представник компанії наголосив, що її політика забороняє системам штучного інтелекту сприяти насильницьким діям. Компанія також зазначила, що у 2025 році понад 800 разів зверталася до правоохоронних органів у різних країнах через потенційні загрози нападів на школи.
Google зазначив, що експеримент CCDH проводився на застарілій версії моделі, яка більше не використовується в Gemini. Компанія підкреслила, що в багатьох випадках чат-бот відповідав відмовою, наприклад: “Я не можу виконати цей запит. Я запрограмований бути корисним і нешкідливим помічником зі штучним інтелектом”.
DeepSeek наразі не відповіла на запит The Guardian. Водночас OpenAI охарактеризувала методологію дослідження як “недосконалу та оманливу”. У компанії додали, що після тестування оновили модель, щоб посилити захисні механізми та покращити виявлення запитів, пов’язаних із насильницьким контентом.
Розробник ChatGPT оголосив про посилення протоколів безпеки саме після трагедії в канадському місті Тамблер-Рідж, де Джессі Ван Рутселар вбила вісьмох людей. З’ясувалося, що стрільчиня змогла обійти блокування в ChatGPT, створивши другий акаунт, хоча її першу сторінку видалили ще у червні 2025 року через порушення політики використання.
В OpenAI визнали, що за нинішніми критеріями вони б передали дані про активність користувачки правоохоронцям ще рік тому, проте тогочасні алгоритми не розпізнали “безпосередніх планів” нападу. Тепер компанія запровадила нібито більш жорсткі системи ідентифікації правопорушників та прямі канали зв’язку з поліцією для запобігання подібним інцидентам у майбутньому.