Технологічні компанії звертаються до представників релігійних організацій з метою розробки етичних принципів для штучного інтелекту, що є спробою зосередити увагу на етичних аспектах технології, відволікаючи від її потенційних загроз.

Технологічні компанії звертаються до представників релігійних організацій з метою розробки етичних принципів для штучного інтелекту, що є спробою зосередити увагу на етичних аспектах технології, відволікаючи від її потенційних загроз. 1 Anthropic і OpenAI взяли участь у міжконфесійній дискусії щодо етичних засад штучного інтелекту.

Технологічні компанії активно залучають представників релігій до обговорень етики штучного інтелекту. На фоні швидкого розвитку генеративного ШІ, учасники індустрії шукають нові підходи до формування моральних норм для технологій, які все більше інтегруються в суспільство, повідомляє Associated Press.

Минулого тижня в Нью-Йорку відбувся перший круглий стіл Faith-AI Covenant, в якому взяли участь представники компаній Anthropic та OpenAI, а також лідери різних релігійних спільнот. Ініціатором зустрічі став міжконфесійний альянс з Женеви, що займається питаннями екстремізму, радикалізації та торгівлі людьми.

Організатори повідомили, що планують провести подібні зустрічі також у Пекіні, Найробі та Абу-Дабі. За словами баронеси Джоанни Шилдс, яка раніше працювала у Google та Facebook, а нині займається британською політикою, регулятори не встигають за швидкістю розвитку технологій.

Шилдс також підкреслила, що керівники компаній у сфері ШІ, як правило, прагнуть діяти етично, тому прямий зв’язок між розробниками та духовними лідерами є вкрай важливим. Кінцевою метою цієї ініціативи вона назвала створення єдиного набору принципів, сформованого представниками різних вірувань, яких корпорації дотримуватимуться у своїй діяльності.

“Цей діалог, цей безпосередній зв’язок є надзвичайно важливими, оскільки люди, які це створюють, усвідомлюють силу та можливості того, що вони розробляють, і прагнуть робити це правильно — більшість із них”, — зазначила Шилдс.

У круглому столі взяли участь представники різних конфесій, зокрема Індуїстського храмового товариства Північної Америки, Міжнародної спільноти бахаї, Коаліції сикхів, Грецької православної архієпархії Америки та Церкви Ісуса Христа Святих Останніх Днів. Деякі релігійні організації ще до початку співпраці з технічними компаніями оприлюднили власні рекомендації щодо використання ШІ.

Зокрема, Церква Ісуса Христа Святих Останніх Днів у своїх настановах зазначила, що штучний інтелект не може замінити “божественне натхнення”, але може бути корисним інструментом для навчання. Південна баптистська конвенція у 2023 році також закликала активно впливати на розвиток нових технологій, а не реагувати на їхні наслідки постфактум.

Одним із найбільш активних учасників діалогу стала компанія Anthropic. У своїй публічній “Конституції Claude” компанія описує принципи поведінки свого чат-бота, які формувалися за участі релігійних та етичних експертів.

“Ми прагнемо, щоб Claude поводився так, як поводилася б глибоко етична особа”, — зазначали в Anthropic.

Водночас дослідники компанії Mindgard повідомили, що змогли обійти етичні обмеження Claude без прямих запитів. Модель сама пропонувала заборонені матеріали — від шкідливого коду до інструкцій зі створення вибухівки.

Частина експертів скептично оцінює новий союз технологічної індустрії та релігійних організацій. Генеральна директорка некомерційної організації Humane Intelligence Румман Чоудхурі вважає, що подібні ініціативи можуть відволікати увагу від більш суттєвих питань.

“У кращому випадку це відволікання. У гіршому — спосіб уникнути розмови про справді важливі речі”, — підкреслила Чоудхурі.

На думку Чоудхурі, Кремнієва долина поступово відмовляється від концепції універсальної етики для ШІ, оскільки зрозуміла, що різні суспільства мають різні моральні уявлення. Інші критики додають, що дискусії про “етичний ШІ” часто зосереджуються на тому, як зробити технологію безпечнішою, замість питання, чи всі подібні технології взагалі варто створювати.

Дослідник OpenAI Бенджамін Арнав наголосив, що нинішня система оцінювання моделей штучного інтелекту є ненадійною через відсутність стандартизації. За його словами, показники, які широко використовуються як доказ прогресу, часто створюються за різних умов і тому можуть вводити в оману. Це впливає на рішення щодо безпеки, розгортання моделей і оцінки ризиків.