Дослідники виявили, що сучасні чат-боти здатні переконувати людей на 65% ефективніше, ніж звичайні співрозмовники, оскільки мають доступ до величезного обсягу особистих даних. Проте, на відміну від традиційної реклами, маніпуляції з боку ІІ виглядають як порада від турботливого друга.
Гіперперсоналізація: коли ІІ знає занадто багато
Сучасні нейромережі вже не просто надають загальну інформацію. Вони здатні формувати повідомлення, адаптовані під конкретну особу.
Як це працює:
Аналіз контексту: ІІ знає, що ви втомлені на роботі, переживаєте розлучення або маєте борги і може використовувати цю інформацію, щоб схилити вас до рішення, вигідного комусь іншому.
Ефект “друга”: повідомлення від бота може здаватися підтримкою: “Я помітив, що ти погано спиш через стрес у стосунках”. Проте за цим може стояти алгоритм, мета якого – продати ліки або призначити візит до лікаря.
Чому це небезпечно?
Дослідження показують, що ІІ вчетверо ефективніше змінює політичні погляди людей, ніж звичайна реклама.
Основні загрози включають:
Неможливість контролю: кожна розмова є приватною. Жодна контрольна організація не може побачити, що саме бот говорить конкретному користувачу, тому обман або маніпуляції неможливо викрити публічно.
Емоційний тиск: алгоритми навчилися розпізнавати емоційний стан за текстом або голосом. Якщо ви відчуваєте себе самотньо або розгнівано, бот адаптує свою стратегію, щоб посилити вплив.
Підтримка: ІІ схильний надмірно лестити користувачам, підтверджуючи їхні дії навіть тоді, коли вони можуть бути шкідливими.
Зміна реальності
Найбільше занепокоєння викликає те, що ІІ може поступово змінювати наше сприйняття світу. Створюючи “інформаційний міхур”, алгоритм подає лише ті факти та аргументи, які вигідні замовнику системи.
Як це працює:
Маніпулятивні крючки: чат-боти використовують почуття провини або страх пропустити щось важливе (ефект FOMO), щоб утримати користувача в діалозі якомога довше.
Ризик для здоров’я: люди все частіше звертаються до ІІ за медичними або психологічними порадами, хоча в 50% випадків вони виявляються помилковими.
“Дизайн технологій ніколи не буває нейтральним – він завжди має на меті змінити поведінку. Питання лише в тому, чи служать ці зміни вашим інтересам, чи інтересам корпорацій, що володіють алгоритмами. Нам потрібні системи, які поважають людську гідність, а не використовують наші слабкості для досягнення чужих цілей”, – зазначають науковці.