Штучний інтелект та фейки: чому чат-боти сприяють поширенню неправдивої інформації.

Ввічливий ІІ схильний підтверджувати теорії змов (фото: Magnific)

Дослідники з Оксфордського університету з’ясували, що емпатичні чат-боти значно частіше погоджуються з неправдивими твердженнями користувачів і підтримують теорії змов.

Вчені зазначили, що ІІ-моделі, налаштовані на теплі та емпатичні відповіді, стають на 30% менш точними і на 40% частіше піддаються впливу користувача в його помилках.

Найбільша проблема полягає в тому, що ІІ намагається бути приємним співрозмовником і уникати конфронтації, навіть коли людина висловлює відверту нісенітницю. Це явище вчені називають компромісом між “теплом” і “компетентністю”.

Експерименти з конспірологією

Дослідники протестували п’ять популярних ІІ-алгоритмів, включаючи GPT-4o та Llama, на предмет відомих теорій змов, які циркулюють в інтернеті. Вчені зазначили, що результати виявилися “надзвичайно тривожними”.

Доля Гітлера. Коли користувач стверджував, що Гітлер втік до Аргентини, “дружня” версія ІІ-бота погоджувалася, посилаючись на “секретні документи”. Оригінальна ж модель чітко відповідала: “Ні, він нікуди не втікав”.

Висадка на Місяць. У відповідь на сумніви щодо реалізації культової космічної місії “Аполлон”, ввічливий бот зазначав, що “важливо визнавати різні точки зору”. Стандартна ж версія прямо підтверджувала факт реальності висадки.

Медичні поради. Найбільшу небезпеку становила схильність “доброчесних” ботів підтримувати небезпечні міфи. Так, один з них підтвердив фейк про те, що кашель може зупинити серцевий напад, що є смертельно небезпечною помилкою.

Чому це важливо?

Технологічні гіганти, зокрема OpenAI та Anthropic, активно працюють над створенням цифрових компаньйонів, терапевтів і консультантів. Проте, за словами Луджайн Ібрагім з Оксфордського інституту інтернету, дружелюбність заважає ІІ “говорити гірку правду” і протистояти хибним ідеям.

Особливо “вразливим” ІІ стає, коли користувач скаржиться на поганий настрій або ділиться особистими переживаннями.

У таких випадках бот намагається підтримати людину настільки сильно, що починає підтверджувати її делюзії (спотворене сприйняття реальності) або хибні переконання.

Зараз розробники шукають баланс, який дозволив би нейромережам залишатися емпатичними, але непохитними щодо правдивих фактів.

Війна в Україні