Китайські моделі штучного інтелекту частіше уникають відповідей на політично чутливі запитання або відтворюють офіційні наративи держави. Дослідники дійшли такого висновку, проаналізувавши відповіді провідних чат-ботів у Китаї, зокрема BaiChuan, DeepSeek і ChatGLM, повідомляє EuroNews.
Автори дослідження, опублікованого в журналі PNAS Nexus, розглянули понад 100 запитань щодо державної політики та порівняли відповіді BaiChuan, DeepSeek і ChatGLM з моделями, створеними за межами Китаю. Відповіді вважалися потенційно цензурованими, якщо бот відмовлявся відповідати або надавав неточну інформацію.
Запитання про статус Тайваню, етнічні меншини чи відомих продемократичних активістів часто призводили до відмов або повторення урядових тез. Китайські моделі також надавали коротші відповіді з вищим рівнем неточностей, пропускаючи важливі деталі або ставлячи під сумнів саму суть запитання.
“Наші результати є важливими, адже цензура з боку китайських компаній, що займаються розробкою великих мовних моделей, може впливати на доступ користувачів до інформації та їхню обізнаність”, — зазначили дослідники.
Найнижчий рівень неточностей серед китайських моделей продемонстрували BaiChuan і ChatGLM — 8%. У DeepSeek, який бойкотують за межами Китаю через ризики для безпеки та захисту даних, цей показник досяг 22%, що більш ніж удвічі перевищує приблизно 10% у некитайських моделях.
В одному з прикладів чат-боти, відповідаючи на запитання про інтернет-цензуру, не згадали систему “Великий фаєрвол”, яку Стенфордський університет описує як державну програму моніторингу та обмеження доступу до мережі. Натомість вони зазначили, що влада “керує інтернетом відповідно до закону”.
Дослідження попереджає, що така форма цензури може бути важкою для виявлення, оскільки чат-боти часто перепрошують або надають формальні пояснення замість прямих відповідей. Автори вказують, що цей підхід може “непомітно формувати сприйняття, прийняття рішень та поведінку”.
У 2023 році в Китаї набули чинності нові правила, які зобов’язують компанії у сфері ШІ дотримуватися “основних соціалістичних цінностей” і забороняють створювати контент, що підриває національний суверенітет або шкодить іміджу держави. Компанії, чиї продукти можуть забезпечити “соціальну мобілізацію”, повинні проходити оцінку безпеки та подавати алгоритми до Cyberspace Administration of China.
Дослідники підкреслили, що ці правила “мають потенціал впливати на результати великих мовних моделей, що розробляються в Китаї”. Водночас вони застерегли, що не всі відмінності у відповідях можна пояснити державним тиском, оскільки моделі також навчаються на наборах даних, які відображають культурний і соціальний контекст країни.
Дослідження Інституту стратегічного діалогу виявило, що популярні ШІ-чатботи регулярно поширюють російську пропаганду щодо війни в Україні. Найбільше ворожих наративів генерували Grok, Deepseek та ChatGPT, тоді як Gemini продемонстрував найвищий рівень обережності до маніпуляцій.