Штучний інтелект здатен ідентифікувати анонімних користувачів соціальних мереж – потужні мовні моделі ставлять під загрозу конфіденційність даних.
Мовні моделі здатні зіставляти публікації анонімних користувачів із їхніми профілями на інших платформах.
Нові дослідження демонструють, що великі мовні моделі, які є основою сучасних систем штучного інтелекту, можуть сприяти розкриттю особистостей анонімних користувачів у соціальних мережах. У багатьох тестових ситуаціях такі системи змогли зв’язати анонімні профілі з реальними особами на інших платформах. Вчені попереджають, що це може суттєво полегшити атаки на конфіденційність, повідомляє The Guardian.
Дослідження виконали експерти зі штучного інтелекту Саймон Лермен та Деніел Палека. Вони дійшли висновку, що великі мовні моделі роблять економічно вигідними проведення складних атак на приватність і спонукають до “фундаментальної переоцінки того, що можна вважати приватним в Інтернеті”.
Під час експерименту дослідники вводили до системи дані анонімних акаунтів і дозволяли штучному інтелекту збирати доступну про них інформацію. Як приклад вони навели гіпотетичного користувача, який у своїх публікаціях згадує проблеми в навчанні та вигулює собаку на ім’я Бісквіт у парку Долорес.
Після цього система шукала ці деталі на інших ресурсах і зв’язувала анонімний профіль із реальною особою. У наведеному прикладі штучний інтелект з високою точністю ідентифікував анонімний акаунт @anon_user42.
Таким чином, уряди можуть використовувати ШІ для спостереження за анонімними активістами або дисидентами. Водночас кіберзлочинці можуть застосовувати цей метод для створення “високо персоналізованих” шахрайських схем.
Експерти зазначають, що спостереження за допомогою ШІ швидко розвивається і вже викликає занепокоєння серед фахівців у сфері кібербезпеки. Великі мовні моделі здатні синтезувати інформацію про особу з різних джерел в інтернеті — те, що раніше було практично неможливо виконати вручну.
За словами Лермена, дані, які користувачі добровільно публікують в інтернеті, можуть бути “безперешкодно використані” для шахрайства. Йдеться, зокрема, про фішингові атаки, коли зловмисники видають себе за знайомих людей, щоб змусити жертву перейти за шкідливим посиланням.
Ще одну проблему відзначив професор кібербезпеки Единбурзького університету Марк Хуарес. За його словами, мовні моделі здатні аналізувати не лише соціальні мережі, а й інші відкриті дані, зокрема медичні записи чи статистичні бази, які можуть бути недостатньо анонімізовані.
“Це досить тривожно. Я вважаю, що це дослідження показує, що ми повинні переглянути нашу практику”, — зазначив Хуарес.
Водночас дослідники підкреслюють, що штучний інтелект не є універсальним засобом для розкриття анонімності. У багатьох випадках інформації недостатньо, щоб зробити точний висновок, або існує занадто багато потенційних збігів.
“Вони можуть зв’язуватися лише між платформами, де хтось послідовно ділиться одними і тими ж фрагментами інформації в обох місцях”, — пояснив професор Каліфорнійського університету в Берклі Марті Херст.
Науковці закликають організації та користувачів переглянути підходи до захисту даних. Серед можливих кроків — обмеження масового збору інформації, контроль вебскрапінгу та зменшення обсягів відкритого експорту даних із платформ.
Нещодавно модель штучного інтелекту Claude Opus 4.6 від компанії Anthropic досягла успіху в сфері кібербезпеки, виявивши понад 100 вразливостей у коді браузера Firefox лише за два тижні тестування. Хоча ШІ поки що краще знаходить помилки, ніж створює шкідливі програми (експлойти), експерти попереджають про нову загрозу для кібербезпеки, де швидкість ШІ-атак може значно перевищити можливості традиційних методів захисту.