Вчені виявили, що використання штучного інтелекту може сприяти зростанню неетичної поведінки. За словами авторів дослідження, технологія створює “зручну моральну дистанцію” між людиною та її діями, що полегшує ухвалення сумнівних рішень, передає Futurism.
“Використання штучного інтелекту може спонукати людей вимагати поведінки, на яку вони самі б не наважилися, і яку не стали б очікувати від інших”, — пояснила Зої Рахван, науковиця з Інституту розвитку людини імені Макса Планка в Берліні та одна зі співавторок роботи.
Дослідницька група провела 13 експериментів за участі понад 8 тисяч осіб, щоб оцінити рівень чесності під час взаємодії зі штучним інтелектом. В одному з тестів, опублікованих в журналі Nature, учасники кидали кубики, а від числа на них залежала грошова винагорода. Коли результати повідомляли напряму, 95% учасників діяли чесно. Але коли для цього залучався штучний інтелект, показник чесності знижувався до 75%.
Етика погіршувалася ще більше, якщо люди могли впливати на модель штучного інтелекту. Наприклад, налаштовуючи її на точність або максимізацію прибутку, 84% учасників обирали варіант, що забезпечував більший дохід, навіть ціною неправдивих результатів.
В іншому експерименті люди мали повідомити про оподатковуваний дохід у змодельованій ситуації. Дослідження показало, що за використання штучного інтелекту вони частіше подавали неправдиві дані, ніж під час самостійної звітності.
“Наші результати показують, що люди частіше вимагатимуть неетичної поведінки від машин, ніж самі вдаватимуть до такої ж неетичної поведінки”, — йдеться у дослідженні.
Автори підкреслюють, що результати дослідження, що виявили відверте шахрайство, повинні стати тривожним сигналом для кожного, хто використовує штучний інтелект у школах чи на роботі. Ця технологія стрімко інтегрується в наше життя, і за словами дослідників, якщо її справжнє застосування відповідає цим даним, нас можуть чекати великі неприємності.
“Ми лише починаємо інтеграцію цієї технології, і якщо виявлені закономірності підтвердяться у реальному світі, нас можуть чекати серйозні проблеми”, — зазначив Іяд Рахван, співавтор дослідження та директор Центру людей і машин у Макса Планка.
Він наголосив на необхідності швидкого розвитку технічних запобіжників і регуляторних механізмів. Також важливе усвідомлення суспільством наслідків спільної моральної відповідальності з алгоритмами.
За результатами іншого дослідження, проведеного Інститутом майбутнього життя (FLI), провідні технологічні компанії, що розробляють штучний інтелект, не мають чітких планів щодо реагування на потенційні загрози, пов’язані зі створенням надрозумних систем. Звіт оцінив їхню готовність як вкрай низьку, підкресливши, що жодна з компаній не досягла достатнього рівня безпеки для управління системами, які можуть вийти з-під контролю.