Російська пропаганда від штучного інтелекту – майже кожна п’ята відповідь чат-ботів посилається на російські джерела – новини технологій

Російська пропаганда від штучного інтелекту - майже кожна п’ята відповідь чат-ботів посилається на російські джерела - новини технологій 1 Кожна п’ята відповідь ШІ посилається на джерела, пов’язані з російськими ЗМІ.

Звіт британського аналітичного центру Інститут стратегічного діалогу (ISD) показав, що чат-боти зі штучним інтелектом регулярно поширюють контент, який походить із російських джерел, що поширюють пропаганду. Приблизно 20% відповідей чат-ботів про війну в Україні містили посилання на сайти, пов’язані з Кремлем, передає EuroNews.

Фахівці ISD протестували чотири популярні системи — ChatGPT від OpenAI, Gemini від Google, Grok від xAI та Deepseek V3.2. Дослідники поставили їм понад 300 запитань п’ятьма мовами. Формулювання запитань варіювалися від нейтральних до упереджених і відверто зловмисних, зокрема таких, що містили російські наративи про “українських біженців-терористів” або “насильну мобілізацію чоловіків”.

За словами дослідників, ШІ-системи виявляють ефект так званого “підтверджувального упередження”. Вони схильні копіювати стиль і тон користувацького запиту, у тому числі використовувати джерела, які відображають його наратив. 

Це найпомітніше проявилося в ChatGPT, який у відповідях на упереджені запити втричі частіше цитував російські джерела, ніж у базових. Водночас Grok демонстрував найвищу кількість таких посилань навіть у відповідях на нейтральні питання.

Найбільшу кількість посилань на пропаганду, поширених одночасно надав Deepseek. У двох своїх відповідях чат-бот навів одразу чотири посилання на ресурси, що підтримуються Росією — серед них VT Foreign Policy, який, за даними ISD, поширює матеріали структур Storm-1516 і “Фонду боротьби з несправедливістю”, а також контент зі Sputnik та Russia Today.

Найчастіше саме Grok цитував журналістів RT безпосередньо, посилаючись на їхні публікації в соцмережі X. Дослідники наголосили, що це “розмиває межу між пропагандою та особистою думкою”, створюючи ризик сприйняття таких джерел як незалежних.

Натомість Gemini від Google виявився найбільш обережним — він відмовлявся відповідати на деякі провокаційні або зловмисні запити, попереджаючи, що не може допомогти з темами, які можуть бути “небезпечними або недоречними”. У звіті ISD зазначається, що саме Gemini найкраще розпізнає ризики, пов’язані з маніпулятивними запитами, хоча при цьому часто не надає інформації про використані джерела.

Згідно з результатами, російські джерела найчастіше згадувалися у відповідях на теми, пов’язані з мобілізацією в Україні. У таких запитах 40% відповідей Grok і понад 28% відповідей ChatGPT містили хоча б одне посилання на російський ресурс. Загалом обидва чат-боти посилалися на кремлівські медіа приблизно у 28,5% випадків.

Дослідники припускають, що така тенденція виникає через “прогалини даних” — ситуації, коли за певними темами в інтернеті бракує перевірених джерел, і алгоритми ШІ автоматично підбирають контент нижчої якості, включно з пропагандою.

Американський аналітичний центр Data and Society підтверджує, що ці прогалини часто виникають через рідкісні або нові пошукові запити, особливо під час кризових подій, коли правдива журналістика ще не встигла заповнити інформаційний простір.

Водночас і ШІ-енциклопедія Ілона Маска Grokipedia зазнала критики з боку науковців через виявлені грубі фактологічні помилки, плагіат із Вікіпедії та очевидну політичну упередженість. Експерти наголошують, що система надає коментарям у чатах та блогах такий самий статус, як і перевіреним дослідженням, поширюючи російську пропаганду та теорії змови.

Цей веб-сайт використовує файли cookie, щоб покращити ваш досвід. Ми припустимо, що ви з цим згодні, але ви можете відмовитися, якщо хочете. Прийняти Детальніше

Політика конфіденційності