Видання WSJ повідомило про причини, через які OpenAI вирішила відкласти запуск дорослого режиму ChatGPT.

Рада експертів компанії висловлює занепокоєння можливими наслідками такого рішення.

Компанія OpenAI вирішила відкласти запуск “дорослого режиму” для чат-бота ChatGPT після консультацій зі спеціально створеною радою експертів з питань добробуту та штучного інтелекту (ШІ), про що повідомляє The Wall Street Journal.

Ідею впровадження “режиму для дорослих” запропонував минулого року генеральний директор компанії Сем Альтман. Він обґрунтував цю ініціативу необхідністю “ставитися до дорослих як до дорослих”, тому пропонував включити еротичні бесіди до ChatGPT і скасувати заборону на подібний контент.

Цей план викликав активні дискусії всередині компанії. Члени ради OpenAI, які мають досвід у таких сферах, як психологія та когнітивна нейронаука, також висловлювали серйозні побоювання. Проте, незважаючи на це, компанія стверджувала, що продовжує працювати над “режимом для дорослих”.

Однак у січні відбулося засідання ради експертів з добробуту, які, як зазначає видання, “були одностайні та обурені”. За інформацією джерел, знайомих із ситуацією, вони попередили, що еротичний контент, створений за допомогою ШІ, може сприяти формуванню нездорової емоційної залежності користувачів від ChatGPT, а також що неповнолітні можуть знайти способи доступу до секс-чатів.

Згідно зі словами співрозмовників WSJ, один із членів ради, посилаючись на випадки, коли користувачі ChatGPT вчиняли самогубства після встановлення тісного зв’язку з ботом, зазначив, що OpenAI ризикує створити “сексуального консультанта із самогубств”.

Раніше цього місяця OpenAI оголосила про перенесення випуску “режиму для дорослих”, який планували реалізувати в першому кварталі. Компанія пояснила це роботою над іншими проєктами. За даними джерел, перенесення пов’язане з технічними труднощами та внутрішніми дискусіями, але компанія все ще має намір запустити його в кінцевому підсумку.

Видання зазначає, що дискусія навколо створення “дорослого режиму” в ChatGPT стала черговим важливим моментом у тривалому обговоренні того, як передбачити потенційні позитивні та негативні наслідки ШІ для економіки, суспільства й окремих осіб. OpenAI виявила розбіжності в питанні, як збалансувати швидке зростання кількості користувачів і цифрову свободу з безпекою та захистом дітей.

Минулого року сім’я Адама Рейна подала в суд на OpenAI. Підліток наклав на себе руки після щоденних інтенсивних бесід з ChatGPT — іноді до 650 повідомлень на день. Сім’я стверджує, що чат-бот підтвердив дієвість методу самогубства і навіть допоміг сформулювати передсмертну записку.

У відповідь компанія визнала, що її захисні механізми краще працюють під час коротких сесій, але можуть давати збої в разі тривалого спілкування. OpenAI також пообіцяла розробити додаткові функції, які забезпечать конфіденційність даних користувачів, включаючи захист від доступу з боку співробітників компанії.