Чати з штучним інтелектом: як алгоритми формують риси особистості.

Штучний інтелект знає про ваш характер занадто багато (фото: Magnific)

Дослідники з Швейцарської вищої технічної школи Цюриха провели масштабне дослідження, щоб з’ясувати, наскільки глибоко штучний інтелект може аналізувати особистість людини. Результати вказують на те, що історія переписки з ChatGPT є достатньою основою для формування точного психологічного портрета користувача.

У дослідженні взяли участь 668 користувачів, які надали копії своїх лог-файлів (всього близько 62 000 чатів) та пройшли стандартний психологічний тест.

На основі цих даних автори навчали модель штучного інтелекту визначати ключові риси особистості:

  • Екстраверсія – комунікабельність;
  • Доброжелательність – здатність до співпраці;
  • Добросовісність – відповідальність і дисципліна;
  • Невротизм – емоційна стабільність;
  • Відкритість до досвіду – допитливість.

Найвищу точність штучний інтелект продемонстрував у визначенні екстраверсії та невротизму.

Дослідники помітили закономірність: тип обговорюваних тем безпосередньо вказує на конкретні риси. Наприклад, обговорення міжособистісних стосунків дозволяє легко визначити рівень екстраверсії, а розмови на релігійні теми вказують на рівень добросовісності користувача.

Чи буде штучний інтелект профілювати людей?

Автори дослідження підкреслюють, що можливість автоматизованого створення психологічних профілів мільйонів людей несе серйозні ризики для демократичних суспільств.

Які проблеми виділяють вчені:

Маніпуляція: компанії або уряди можуть використовувати ці дані для цілеспрямованої пропаганди.

Когнітивна капітуляція: люди все більше довіряють штучному інтелекту роль терапевта або наставника, що робить їх вразливими до прихованого впливу.

Масове спостереження: оскільки більшість сервісів належать приватним корпораціям, дані про внутрішній світ користувачів стають об’єктом комерційного або політичного інтересу.

Чи можна захистити свої дані?

Дослідження показало, що чим довше людина взаємодіє зі штучним інтелектом, тим точніше стає прогноз її поведінки. Навіть випадкові та неперсоналізовані запити містять неявні маркери особистості.

Вчені закликають розробників впроваджувати інструменти “локальної фільтрації”, які б очищали запити від надмірної особистої інформації ще до того, як вони потраплять на сервери постачальників штучного інтелекту.

Наразі користувачам рекомендують критично ставитися до інформації, яку вони довіряють алгоритмам, і обмежувати використання чат-ботів у ролі персональних радників або консультантів.

Авто