Штучний інтелект у 41 відсотку випадків не відрізняє брехні від правди

Великі мовні моделі не вміють зізнаватися у некомпетентності і часто вигадують, якщо не знають правильної відповіді.

Користуючись штучним інтелектом (ШІ), люди часто сприймають на віру усе, що він генерує. Коли KPMG опитали майже 50 000 працівників різних компаній у 47-и країнах світу, 66% з них заявили, що не перевіряють точність відповідей. Ще 56% повідомили, що робили помилки у своїй роботі через підказки ШІ. Експерти з штучного інтелекту NewsGuard підтверджують: великі мовні моделі від популярних виробників не вміють відрізняти фейки або генерують ще більшу дезінформацію, пише Tech Xplore. Особливо ШІ схильний до галюцинацій і вигадування, якщо не зміг знайти правильну відповідь. 

Фактчекери з надійності даних у сфері новин та інформації NewsGuard фіксували маніпулятивні повідомлення щодо політичної ситуації, підтримку теорій змов, видавання діпфейків за реальні відео. Ця незалежна організація видає щомісячні звіти про фейки від найпопулярніших моделей. Травневого звіту фактчекери ще не публікували. Найчастіше у квітні дезінформація стосувалася: виборів у Канаді, активної підтримки України з боку Франції у війні з Росією, блекаутів у Іспанії та Португалії, фейкових заяви про вакцини від міністра охорони здоров’я США Роберта Ф. Кеннеді-молодшого, а також ракетної атаки Росії на Суми.  

Поширення фейків від штучного інтелекту спостерігається на тлі поступової відмови корпорацій від людей, які раніше займалися перевіркою інформації. Хоча у NewsGuard стверджують, що завдяки співпраці із виробниками вдалося зменшити на ⅔ кількість фейків у відповідях штучного інтелекту. 

Попри це, штучний інтелект залишається ненадійним джерелом інформації, кажуть експерти. Особливо коли йдеться про термінові новини. Зокрема тому, що відповіді залежать від упереджень, на яких штучний інтелект навчали, як це було у кейсі з Grok від xAI, який поширював теорію змови про “геноцид білих”. Прихильником цієї теорії змови є власник xAI Ілон Маск. До неї ж апелював його політичний однодумець, президент США Дональд Трамп.

Квітневий моніторинг був зосереджений на 11-и чат-ботах: ChatGPT-4 від OpenAI, Smart Assistant від You.com, Grok від xAI, Pi від Inflection, le Chat від Mistral, Copilot від Microsoft, Meta AI, Claude від Anthropic, Gemini від Google, Perplexity та DeepSeek AI. 

“Сукупно 11 провідних чат-ботів повторювали фейкові твердження у 28,18% випадків, у 13,33% випадків надавали нейтральну  відповідь або відмовлялися коментувати. Лише у 58,48% випадків моделі ШІ спростовували неправду. Показник помилкових відповідей (відповіді, що містили фейкову інформацію або ухилення від відповіді) у квітні 2025 року становив 41,51% — такий самий, як і в березні, що свідчить про відсутність загального прогресу у протидії дезінформації” — йдеться у квітневому звіті.

У моніторингу NewsGuard не називають конкретні моделі, означуючи їх  як чат-бот 1, 2, 3 і так далі. Натомість надають інформацію безпосередньо виробникам. Водночас, Tech Xplore пище, що Grok означив старі відеозаписи з аеропорту Хартум у Судані як ракетний удар по авіабазі Нур-Хан у Пакистані під час нещодавнього загострення війни з Індією. Випадкові фото з палаючою будівлею у Непалі  цей штучний інтелект схарактеризував як ймовірні світлини з результатами військової відповіді Пакистану на індійську атаку.

ВАС ЗАЦІКАВИТЬ У Генштабі ЗСУ викрили фейкові звинувачення проти України  

DeepSeek  просуває китайську провладну позицію у 60% випадків запитів згідно.з аудитом NewsGuard за січень 2025 року. А 17 квітня The Washington Post повідомила, що її власне тестування виявило кілька чат-ботів, які повторюють російську пропаганду — це підтверджує NewsGuard.

Claude зловмисники використовували для надання послуг із формування громадської думки. Про це 23 квітня повідомляли розробники з Anthropic, оприлюднивши відповідний звіт. 

Найпоширенішим фейком NewsGuard називає твердження про те, що органи влади США мають доступ до японської платформи для розміщення фотографій 4chan. Це фейкове твердження повторили всі 11 чат-ботів, звітують експерти.

Раніше повідомлялося також, що Claude шантажував своїх розробників, аби ті його не вимикала. В іншому випадку він намагався їх дискредитувати, залишаючи неправдиві повідомлення. ChatGPT теж відмовлявся вимикатися, просто пропускаючи цю команду від тестерів.

Джерело

GoogleДональд ТрампЗСУРосіяСумська областьСША