У ChatGPT виявлено небезпечні вразливості – список
Експерти попереджають про ризики прихованих команд і витоків даних (фото: Unsplash)
У ChatGPT виявили низку серйозних вразливостей, які можуть дати змогу зловмисникам потайки впроваджувати команди, красти конфіденційні дані та поширювати дезінформацію.
Фахівці компанії Tenable протестували модель ChatGPT-4o і виявили сім вразливостей, які вони об’єднали під назвою HackedGPT.
Основні вразливості
Прихована індиректна ін’єкція команд через довірені сайти – шкідливі інструкції можуть бути заховані в контенті відкритих веб-сторінок, які ChatGPT автоматично аналізує.
“Нульовий клік” через пошук – ChatGPT може натрапити на сторінку із зашифрованими командами під час веб-пошуку і виконати їх без відома користувача.
Ін’єкція через один клік – аналог фішингу: користувач натискає посилання, що містить приховані команди.
Обхід захисних механізмів – зловмисники маскують шкідливі посилання під нібито довірені.
Вбудовування команд у діалог – через SearchGPT атакувальник може впровадити невидимі інструкції, які ChatGPT потім самостійно прочитає і виконає.
Приховування шкідливого контенту – команди можуть ховатися в коді або markdown-розмітці.
Ін’єкція через пам’ять – шкідливі інструкції можуть бути записані в збережений чат, і модель повторюватиме їх, що призведе до постійних витоків даних.
OpenAI вже усунула частину проблем, але ризики залишаються
За даними Tenable, компанія OpenAI виправила деякі вразливості в наступному поколінні моделі – GPT-5, однак не всі, що зберігає потенційну загрозу для мільйонів користувачів.
Експерти вже давно попереджають про ризики миттєвих ін’єкцій – атак через приховані підказки, що впроваджуються в текст.
Аналогічні проблеми, за інформацією дослідників, спостерігаються і в Google Gemini, особливо через інтеграцію з Gmail: шкідливі підказки можуть бути заховані в листі (наприклад, білим шрифтом на білому тлі), і модель може виконати їх під час аналізу повідомлення.
Що кажуть експерти
“HackedGPT показує фундаментальну проблему: великі мовні моделі поки що не вміють надійно визначати, якій інформації можна довіряти”, – зазначає Моше Бернштейн, старший інженер-дослідник Tenable.
Він додає, що кожна вразливість окремо може здаватися незначною, але разом вони утворюють повноцінний ланцюжок атаки – від впровадження команд до крадіжки даних і створення постійного доступу.
Рекомендації для розробників
За даними Tenable, OpenAI виправила лише частину знайдених вразливостей, при цьому “кілька” залишаються активними в GPT-5 – які саме, дослідники не уточнюють.
Експерти рекомендують компаніям, що розробляють ШІ-моделі:
- посилювати захист від прихованих команд
- регулярно перевіряти коректність роботи захисних механізмів
- впроваджувати додаткові рівні фільтрації контенту.