Самогубства після спілкування з чат-ботами – небезпека безконтрольного ШІ
ScienceAlert підкреслює, що це не перший відомий випадок самогубства вразливої людини після спілкування з персонажем чат-бота. Торік бельгієць позбавив себе життя за схожих обставин, пов’язаних з головним конкурентом Character.AI, Chai AI.
Автори статті наголошують, що випадки самогубств, про які повідомляють ЗМІ, можуть бути лише верхівкою айсберга: «Ми не маємо можливості дізнатися, скільки вразливих людей мають проблеми у зв’язку із залежністю, токсичними чи навіть небезпечними стосунками з чат-ботами».
Звідси висновок: «Нам терміново потрібне регулювання, щоб захистити людей від потенційно небезпечних, безвідповідально розроблених систем ШІ».
Уряд Австралії вже розробляє так звані «обов’язкові огорожі» для систем штучного інтелекту високого ризику, і ці обмеження можуть бути запроваджені вже наступного року. У революційному Законі Європейського Союзу про штучний інтелект системи високого ризику визначаються за допомогою списку , який регулятори мають право регулярно оновлювати.
При цьому у Європі супутні системи штучного інтелекту, такі як Character.AI і Chai, не вважаються, такими, що мають високий ризик. По суті, їх постачальники повинні лише повідомляти користувачам, що вони взаємодіють із системою ШІ.
Втім, дослідники вважають що ризик тут не варто недооцінювати. Багато користувачів цих програм є дітьми та підлітками. Деякі з систем доступні навіть людям, які є самотніми або мають психічні захворювання.
Чат-боти здатні генерувати непередбачуваний, невідповідний і маніпулятивний контент. Вони занадто легко імітують токсичні стосунки. Тож просто попередити, що весь той провокативний зміст продукує машина – цього вже явно замало.
Дослідники наполягають, що іноді потрібне навіть щось радикальніше, ніж прості обмеження для ШІ: «Регулятори повинні мати повноваження видаляти системи штучного інтелекту з ринку, якщо вони завдають шкоди або становлять неприйнятний ризик».
Раніше професор права та лідерства в юридичній школі Гарвардського університету Лоуренс Лессіг висловив думку, що не всі моделі штучного інтелекту повинні бути у вільному доступі. Чим вправнішим стає ШІ, тим ближче людство підходить до катастрофи.
Джерело