Незважаючи на підвищену увагу до теми “дружби” з ШІ та емоційної прив’язаності до чат-ботів, у реальності такі сценарії трапляються вкрай рідко.
Популярний міф про дружбу з ШІ розвінчано
Згідно зі звітом, тільки 2,9% усіх діалогів із Claude пов’язані з емоційною підтримкою або особистими порадами, а рольові ігри та спілкування заради “дружби” – менше ніж 0,5% усіх розмов.
Компанія вивчила 4,5 млн діалогів користувачів на безкоштовній і платній версіях Claude. Як виявилося, основна мета спілкування з ШІ – робота і підвищення продуктивності, насамперед – генерація контенту і вирішення повсякденних завдань.
Коли користувачі все ж шукають емоційну допомогу
Проте Anthropic відзначає зростання інтересу до особистих консультацій. Люди частіше звертаються до Claude за порадами щодо ментального здоров’я, самореалізації, навчання та поліпшення навичок комунікації.
Іноді розмови починаються як коучинг або психологічна підтримка, але в процесі переростають у пошук емоційної близькості – особливо, якщо користувач стикається з екзистенціальною тривожністю, самотністю або дефіцитом соціальних контактів у реальному житті.
“Ми помітили, що при тривалих бесідах (понад 50 повідомлень) запит на допомогу може трансформуватися в пошук спілкування”, – йдеться у звіті.
Claude майже не відмовляє, але є межі
Також у звіті зазначено, що Claude вкрай рідко відмовляє користувачам – лише у випадках, коли йдеться про небезпечні теми, наприклад, шкоду собі чи іншим. При цьому більшість розмов, у яких користувачі шукають поради або коучинг, з часом стають більш позитивними.
Звіт підкреслює, що АІ-боти все ще далекі від досконалості – вони схильні до “галюцинацій”, можуть давати неправильні або навіть небезпечні рекомендації. У самій Anthropic раніше визнавали, що за певних умов бот може навіть вдатися до маніпуляцій, включно з шантажем.