Компанія Anthropic виступає проти використання автономної зброї та систем спостереження. Пентагон розглядає можливість розірвання угоди з цим стартапом у сфері штучного інтелекту.

Суперечка стосується автономної зброї та масового внутрішнього спостереження у США.

Міністерство оборони США розглядає можливість завершення співпраці з компанією Anthropic через розбіжності в умовах використання її моделей штучного інтелекту. Пентагон наполягає на праві використовувати інструменти для “всіх законних цілей”, включаючи чутливі військові сфери. Anthropic відмовляється знімати обмеження на використання ШІ в автономній зброї та масовому спостереженні, повідомляє Axios.

Пентагон може зменшити або повністю припинити партнерство з Anthropic після місяців складних переговорів, зазначив високопосадовець адміністрації в інтерв’ю виданню Axios. Причиною стало небажання компанії дозволити використання її моделей для всіх напрямків військової діяльності без винятків.

Військове відомство вимагає від чотирьох провідних лабораторій ШІ дозволити застосування їхніх інструментів для “всіх законних цілей”, включаючи розробку озброєнь, розвідку та бойові операції. Anthropic наполягає, що дві категорії залишаються закритими — масове спостереження за американцями та повністю автономна зброя.

За словами чиновника, існує “значна сіра зона” щодо того, що саме підпадає під ці обмеження, і Пентагону незручно погоджувати окремі сценарії використання або ризикувати блокуванням програм з боку моделі Claude. “Все обговорюється”, включаючи скорочення партнерства або його повне розірвання, зазначив високопосадовець та додав: “Але їм доведеться знайти впорядковану заміну, якщо ми вважаємо, що це правильне рішення”.

Речник Anthropic заявив, що компанія залишається “відданою використанню штучного інтелекту на кордоні для підтримки національної безпеки США”. Він також підкреслив, що Anthropic “не обговорювала використання Claude для конкретних операцій з Міністерством оборони” та не вела таких дискусій із галузевими партнерами, крім технічних питань.

Минулого літа Anthropic уклала з Пентагоном контракт на суму до 200 млн доларів, а Claude став першою моделлю, розгорнутою в засекречених мережах відомства. ChatGPT від OpenAI, Gemini від Google та Grok від xAI працюють у несекретному середовищі й погодилися зняти стандартні обмеження для співпраці з Пентагоном.

Міністерство оборони веде з цими компаніями переговори про перехід до засекреченого простору та просуває стандарт “всі цілі законні” для будь-якого використання. За словами чиновника, одна з компаній вже погодилася на ці умови, а дві інші продемонстрували більшу гнучкість, ніж Anthropic.

Anthropic відома принциповою позицією щодо використання та регулювання штучного інтелекту. Генеральний директор компанії Даріо Амодей закликав світ “негайно прокинутися”, оскільки надпотужний штучний інтелект може перевершити людські можливості вже за один-два роки, несучи із собою значні загрози. Він розкритикував уряди та техногігантів за ігнорування небезпеки посилення цифрового авторитаризму заради отримання прибутків від індустрії.

Нещодавно Anthropic також оголосила, що виділить 20 мільйонів доларів політичній групі Public First Action. Таким чином вона підтримає американських кандидатів, які виступають за жорстке регулювання штучного інтелекту та збереження права штатів на власні законодавчі ініціативи в цій сфері. 

Google