Дослідження вчених виявило, що ChatGPT та Claude можуть передавати дані з чатів.

Ваші чати з ІІ не захищені (фото: Magnific)

Дослідження інституту IMDEA Networks виявило, що популярні системи штучного інтелекту, такі як ChatGPT, Claude та Grok, використовують приховані трекери, які можуть розкривати зміст приватних розмов третім особам.

Куди зникають ваші чати?

Дослідники визначили три критичні проблеми:

  • передачу прямих посилань (пермалінків) на діалоги стороннім сервісам;
  • можливість прив’язки розмов до реальної особи;
  • невідповідність політик конфіденційності реальному стану справ.

Відкритість даних

Деякі системи мають слабкий контроль доступу. Наприклад, наявність прямого посилання на чат дозволяє будь-кому – включаючи рекламні трекери – бачити його вміст.

Так, сервіси Grok та Perplexity передають URL-адреси розмов трекерам Meta Pixel. Більше того, Grok може розкривати навіть точний текст повідомлень через метадані Open Graph, які збирає TikTok.

Як зазначає співавтор дослідження Гільєрмо Суарес-Тангіль, ці практики є продовженням бізнес-моделей, заснованих на зборі даних, але тепер вони перейшли в екосистему генеративного ІІ.

Зв’язок з реальною ідентичністю

Комбінація файлів cookie, зашифрованих адрес електронної пошти та методів серверного відстеження дозволяє рекламним компаніям ідентифікувати користувача.

Навіть якщо ви не вказуєте своє ім’я в чаті, трекери здатні поєднати активність в ІІ-системі з вашим загальним цифровим профілем.

“Більшість користувачів не має можливості дізнатися, що це відбувається; в інтерфейсі немає нічого видимого, що підказало б їм про це. Відмова від необов’язкових файлів cookie допомагає в деяких випадках, але наше дослідження показує, що цього не завжди достатньо”, – зазначає вчений Анікет Гіріш.

Юридична колізія та “замилювання очей”

Дослідження показало, що наявні елементи управління конфіденційністю в інтерфейсах часто вводять користувачів в оману. Політики конфіденційності визнають обмін даними з “діловими партнерами”, проте ніде чітко не зазначено, що частиною цієї інформації є самі розмови.

Юрист Хорхе Гарсія Ерреро, який консультував команду вчених, порівнює цю ситуацію з відомими дисклеймерами про помилки ІІ.

“Попередження про те, що наша найчутливіша інформація може потрапити в рекламну індустрію, заслуговує на таку ж увагу, як і всепроникне застереження “ІІ може помилятися, будь ласка, перевіряйте відповіді”, – говорить спеціаліст.

Чи є вихід?

Поки автори дослідження називають свої висновки попередніми, однак вони вже сигналізують про необхідність посилення регулювання ІІ з боку держави (зокрема в рамках GDPR).

Поки платформи не змінять свої підходи на системному рівні, користувачам радять бути максимально обережними: не вводити персональні дані, не ділитися паролями або фінансовою інформацією, навіть якщо чат-бот здається “дружнім” співрозмовником, який підтверджує повну конфіденційність діалогу.