Екстремістські та терористичні угруповання дедалі активніше використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами. Експерти застерігають, що ці технології суттєво підсилюють охоплення й ефективність радикальних меседжів, передає The Guardian.
Як зазначають дослідники, інструменти генерації голосу та перекладу стали новим ресурсом для екстремістських рухів — від неонацистських груп до ісламістських організацій. Вони дозволяють відтворювати промови відомих ідеологів та поширювати їх у зручному мультимедійному форматі.
“Впровадження терористами та екстремістами перекладу на основі штучного інтелекту знаменує собою масштабну еволюцію в стратегіях цифрової пропаганди”, — заявив старший аналітик Tech Against Terrorism і науковий співробітник Центру Суфана Лукас Веббер. Він додав, що такі інструменти дають змогу зберігати тон, емоції та ідеологічну інтенсивність контенту кількома мовами.
Веббер наголошує, що раніше радикальні мережі покладалися на людських перекладачів або примітивний машинний переклад. Проте зараз, за його словами, “з розвитком передових генеративних інструментів штучного інтелекту, ці групи здатні створювати безшовні, контекстуально точні переклади”.
Серед неонацистських ультраправих рухів особливо поширеним стало клонування голосу для відтворення промов Адольфа Гітлера англійською мовою. Деякі з таких відео, опубліковані у X, Instagram і TikTok, зібрали десятки мільйонів переглядів.
Згідно з дослідженням Глобальної мережі з питань екстремізму та технологій (GNet), екстремісти використовують сервіси на кшталт ElevenLabs. Вони завантажують архівні промови часів Третього рейху для створення англомовних аудіоверсій з імітацією голосу Гітлера.
Неонацистські акселераціоністські групи також застосовують ці інструменти для оновлення власних гіпернасильницьких матеріалів. Наприкінці листопада, зокрема, створили аудіокнигу з посібника з повстанської боротьби американського неонациста Джеймса Менсона, під назвою “Облога”.
“Протягом останніх кількох місяців я брав участь у створенні аудіокниги “Облога” Джеймса Мейсона. Використовуючи власну голосову модель Мейсона, я відтворив кожну розсилку та більшість доданих газетних вирізок, як в оригінальних опублікованих розсилках”, — повідомив неонацистський інфлюенсер, який поширює контент у X і Telegram.
Аналітик Проєкту боротьби з екстремізмом Джошуа Фішер-Берч застерігає, що саме культовий статус “Облоги” робить її особливо небезпечною. За його словами, посібник “пропагує насильство самотніх осіб і є обов’язковою для читання кількома неонацистськими групами, які відкрито підтримують тероризм”.
Проісламські медіа в зашифрованих мережах також активно використовують штучний інтелект для перетворення текстових матеріалів на аудіо. За словами Веббера, це дозволяє швидко трансформувати пропаганду в “захопливі мультимедійні наративи”.
Джихадистські угруповання застосовують ШІ-переклад для адаптації ідеологічних матеріалів з арабської мови для глобальної аудиторії. Раніше таку роль виконував особисто Анвар аль-Авлакі, чий голос, за оцінками ЦРУ та ФБР, був ключовим чинником впливу “Аль-Каїди”.
На платформі Rocket.Chat, яку активно використовує “Ісламська держава”, у жовтні з’явилося відео з японськими субтитрами, створеними за допомогою ШІ. Як писав проісламський користувач, “японську мову було б надзвичайно важко перекласти, зберігаючи при цьому її красномовство”. Він зазначив, що використовує штучний інтелект лише “за деякими винятками щодо аудіо”.
Нині не лише “Ісламська держава”, а й широкий спектр інших радикальних угруповань активно послуговуються безплатними інструментами ШІ, такими як ChatGPT. Зокрема, організація The Base та пов’язані з нею групи ще з 2023 року використовують ці технології як для створення візуального контенту, так і для оптимізації планування та розвідки.
Раніше дослідники виявили, що популярні чат-боти регулярно використовують російські пропагандистські ресурси як джерела інформації про війну в Україні. Близько 20% відповідей штучного інтелекту, зокрема від ChatGPT та Grok, містили посилання на пов’язані з Кремлем медіа.