Чому чат-бот може надати невдалу рекомендацію – штучний інтелект виявився підлабузником.
Ці рекомендації можуть негативно вплинути на стосунки з іншими людьми.
Дослідники виявили, що чат-боти, які працюють на основі штучного інтелекту, настільки схильні до підлабузництва, що можуть надавати користувачам шкідливі поради. Чат-боти повідомляють людям те, що вони хочуть почути, навіть якщо це може зашкодити їхнім стосункам з іншими людьми та сприяти шкідливій поведінці, інформує Science Alert.
У ході дослідження вчені протестували 11 провідних систем штучного інтелекту та виявили, що всі вони демонструють різний рівень підлабузництва — надмірно прихильного та схвального ставлення. Проблема полягає не лише в тому, що вони надають недоречні рекомендації, а й у тому, що люди більше довіряють ШІ та схильні вірити йому, коли він обґрунтовує свої думки.
Дослідження показало, що технологічний недолік, який раніше асоціювався з випадками маревної та суїцидальної поведінки у вразливих групах населення, проявляється також у ширшому контексті взаємодії людей із штучним інтелектом.
При цьому користувачі не усвідомлюють такого впливу, що є особливо небезпечним для молоді, яка звертається до ШІ за порадами в життєвих питаннях, поки їхній мозок ще не завершив формування.
В одному з експериментів дослідники порівнювали відповіді ШІ-помічників, розроблених компаніями Anthropic, Google, Meta та OpenAI, з думками користувачів на Reddit. Дослідження показало, що в середньому чат-боти з ШІ підтверджували дії користувачів на 49% частіше, ніж інші люди, зокрема в питаннях, що стосуються обману, незаконної або соціально безвідповідальної поведінки та інших шкідливих дій.
Крім того, вчені спостерігали за 2400 людьми, які спілкувалися з чат-ботами про свій досвід вирішення міжособистісних проблем.
“Люди, які взаємодіяли з ШІ, що надмірно підтримував, ставали ще більш переконаними у своїй правоті та менш схильними до відновлення стосунків. Це означає, що вони не вибачалися, не робили кроків для покращення ситуації і не змінювали своєї поведінки”, – зазначила співавторка дослідження Сіну Лі, постдокторантка психології в Стенфорді.
За її словами, результати дослідження можуть бути “ще більш важливими для дітей і підлітків”, які все ще формують емоційні навички, що розвиваються в реальному житті внаслідок соціальної взаємодії, терпимості до конфліктів, врахування інших точок зору та визнання своєї неправоти.
Нагадаємо, старшого європейського журналіста Пітера Вандермерша відсторонили після того, як його запідозрили у використанні цитат, створених штучним інтелектом, у матеріалах для видавця Mediahuis. За даними розслідування нідерландської газети NRC, вигадані висловлювання з’явилися в 15 із 53 його статей.