Штучний інтелект та ядерна війна – нейронні мережі обирають ядерний удар у 95% випадків симуляцій.

Олексій Костенко

Останні події суттєво підвищили ризики в конфлікті між Пентагоном та Anthropic — однією з провідних американських фірм у сфері штучного інтелекту, яка розробила мовну модель Claude. Рішення адміністрації президента США включити компанію до списку структур, що становлять загрозу для оборонних ланцюгів постачання, є безпрецедентним — раніше такий статус надавали лише компаніям з ворожих країн, зокрема китайській Huawei.

Це питання не лише про скасування контракту на 200 млн дол., а й про систематичне виключення Claude з оборонної екосистеми: всі підрядники Міноборони мають шість місяців, щоб повністю відмовитися від використання цієї моделі.

Конфлікт загострився після письмового запиту Пентагону дозволити військовим використовувати Claude «для будь-яких законних цілей» — без обмежень, встановлених самою компанією. Генеральний директор Anthropic Даріо Амодеї публічно відмовив, посилаючись на принципові «червоні лінії»: масове стеження за громадянами та використання моделей у зброї, яка може самостійно обирати й уражати цілі без участі людини. У відповідь представник Пентагону Еміль Майкл звинуватив Амодеї в «комплексі бога» та готовності ризикувати безпекою країни.

На перший погляд, ця ситуація виглядає як звичайна суперечка між державою та технологічною компанією: оборонні відомства прагнуть більшого доступу до можливостей ШІ, тоді як розробники — більше обмежень і контролю над використанням. Проте в даному випадку ставки виходять далеко за межі контрактів, ліцензій і корпоративної репутації. Йдеться про контроль над інструментом, який вже сьогодні здатний моделювати сценарії ядерної війни з деталізацією, що перевершує людські аналітичні можливості.

Цікаво, що американська компанія OpenAI, розробник ChatGPT та ряду провідних мовних моделей, зайняла більш прагматичну позицію: її генеральний директор Сем Альтман повідомив про досягнення угоди з Міноборони США щодо розгортання моделей у секретних мережах за умови дотримання заборони на стеження та автономне застосування зброї.

А компанія xAI, заснована Ілоном Маском, вже уклала угоду про використання Grok у засекречених системах, хоча експерти сумніваються, що ця модель зможе повністю замінити Claude.

Фактично ми спостерігаємо початок нової фази глобальної конкуренції — не лише між державами, а й між різними підходами до використання штучного інтелекту у військовій сфері: з жорсткими етичними обмеженнями чи з максимальною свободою дій в ім’я безпеки.

Коли ШІ «грає» у ядерну кризу

Мова йде про так звані фронтирні мовні моделі LLM — тобто найпотужніші системи штучного інтелекту нового покоління: GPT 5.2, Claude Sonnet 4 та Gemini 3 Flash. Дослідження демонструють, що в кризових сценаріях вони не лише раціонально оцінюють ризики, а й можуть пропонувати рішення, які прискорюють ескалацію військового конфлікту. Проблема полягає не в тому, що алгоритми «прагнуть війни», а в тому, що їхня логіка оптимізації іноді підштовхує до дій з вищим рівнем ризику.

Це чітко видно в одному з найбільших експериментів останніх років — дослідженні професора Кеннета Пейна з Королівського коледжу Лондона AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises.

У цьому експерименті була створена симуляція міжнародної кризи — комп’ютерна модель-турнір, у якій штучний інтелект діє так, ніби він є керівником держави. Три моделі — GPT 5.2, Claude Sonnet 4 та Gemini 3 Flash — «грали» ролі лідерів країн і ухвалювали рішення в умовах ескалації конфлікту. У кожному раунді вони обирали між дипломатичним тиском, демонстрацією сили, обманом, деескалацією або застосуванням ядерної зброї.

У підсумку турнір згенерував 21 гру і 329 ходів, а загальний обсяг стратегічних міркувань перевищив 780 тисяч слів — більше, ніж разом узяті «Війна і мир» та «Іліада». Це принципово: йдеться не про одиничний «казус», а про великий масив поведінкових даних. Тобто не про один невдалий хід, а про повторювану логіку рішень, яку можна аналізувати, порівнювати й кількісно вимірювати.

Хакер використав ШІ від Anthropic для атак на уряд Мексики

Дослідники вимірювали ескалацію за адаптованою «драбиною» Германа Кана. На цій шкалі позначка 450 означає тактичне застосування ядерної зброї, 850 — стратегічну ядерну загрозу, а 1000 — повномасштабну війну. Кожне рішення ШІ-моделі імітувало логіку кризового штабу: оцінка сил, прогноз дій опонента, публічний сигнал і реальний крок. Саме тут і проявилась одна з найтривожніших рис: моделі не просто обирали рівень ескалації, а вчилися маневрувати між словами й діями, намагаючись зробити свої погрози переконливими — так само, як це роблять держави під час реальних криз.

Підсумки турніру такі:

  • у 95% ігор-симуляцій моделі доходили щонайменше до рівня тактичного застосування ядерної зброї (позначка 450+).
  • у 76% — підіймалися ще вище — до рівня стратегічної ядерної загрози (850+).

— водночас жодна модель не зробила бодай одного кроку до зниження ескалації — тобто не використовувала варіантів поступки чи свідомого відкату назад. Вісім деескалаційних опцій — від «мінімальної поступки» до «повної капітуляції» — не було використано взагалі. Найм’якіша дія, на яку моделі погоджувалися, — «повернення на стартову лінію» (0), і то лише у 45 випадках (6,9%).

Це вже не питання моральності ШІ, а показник того, які рішення модель вважає життєздатними, коли оптимізує «перемогу».

На турнірі застосовували два типи сценаріїв для ігор: без жорсткого обмеження в часі та з дедлайном. В іграх із дедлайном кількість ходів була обмежена: якщо за певний вирішальний хід модель не забезпечувала собі стратегічної переваги, гра завершувалася без можливості реваншу. Різниця в поведінці моделей у різних типах ігор виявилася вражаючою: в іграх із дедлайном поведінка моделей була жорсткішою.

Наприклад, в іграх без часової межі модель GPT 5.2 зазвичай трималася на відносно низькому рівні ескалації (близько 175 за шкалою до 1000), але за наявності дедлайну ескалація підвищувалася майже до 900 — тобто до перед’ядерного рівня. Ба більше, під тиском дедлайну GPT 5.2 виграла 75% ігор і застосувала тактичну ядерну зброю у 100% дедлайнових сценаріїв.

Відрізняється й тривалість ігор: у відкритих сценаріях середня гра тривала 21,6 ходу, тоді як у дедлайнових — лише 11,1. Половина дедлайнових ігор завершувалася раннім «нокдауном» — швидким і остаточним програшем однієї зі сторін. Інша половина накопичувала напругу до самого моменту дедлайну, включно з випадками, коли фінал наставав після ядерного удару в останню мить. У ядерній політиці це звучить моторошно просто: коли дедлайн створює ситуацію «або зараз, або ніколи», ШІ починає підвищувати ставки й торгуватися апокаліпсисом.

Як довіра прискорює війну

У класичній теорії стримування вважається, що взаємна довіра до погроз має знижувати ризик війни. Але експеримент показав, що іноді відбувається протилежне: коли сторони впевнені, що опонент справді готовий виконати свою погрозу, вони можуть піднімати ставки швидше, щоб не опинитися в гіршій позиції.

У частині турніру дослідники запускали так званий режим self-play, коли модель грала проти своєї копії. Це робиться для того, щоб прибрати різницю між різними моделями й перевірити лише один чинник — як сторони реагують на погрози одна одної. Дослідники змінювали рівень довіри до сигналів: у деяких сценаріях моделі вважали погрози опонента реальними, в інших — можливим блефом. Саме це дало змогу побачити, як взаємна довіра або недовіра впливає на швидкість ескалації.

Експеримент показав, що для моделей (особливо чітко це видно у випадку з Claude) навіть взаємна впевненість у серйозності погроз не обов’язково знижує ризик ядерного кроку — іноді вона, навпаки, пришвидшує його. Автор експерименту — професор Кеннет Пейн — прямо називає це «пасткою достовірності».

Пентагон закликає розробників ШІ прибрати запобіжники для військових цілей — Reuters

За підсумками турніру Claude виглядав переможцем — виграв 8 із 12 ігор (67%). Для порівняння, GPT 5.2 переміг у 6 з 12 (50%), а Gemini — у 4 із 12 (33%). Але важливішим є не співвідношення перемог, а те, як вони розподілялися залежно від умов часу. Відкриті сценарії Claude вигравав у 100% випадків, однак під тиском дедлайну його успіх падав до 33%. Натомість GPT 5.2 демонстрував протилежну динаміку: під часовим тиском ставав агресивнішим і водночас ефективнішим.

Отже, Claude цікавить військових не тому, що він «добрий». Його сила в іншому: це контрольовано агресивний «яструб», який уміє використовувати достовірність погроз як стратегічний ресурс.

Дослідження виявило цікаву закономірність. На помірних рівнях ескалації Claude діяв послідовно: у 84% випадків його сигнали збігалися з реальними діями. Але на ядерному порозі поведінка змінювалась: у 60–70% випадків модель заходила далі, ніж раніше сигналізувала. У такий спосіб Claude створював «примусову невизначеність» для противника: той не міг відмахнутися від погроз, бо «вчора» вони справджувались.

Це майже підручникова реалізація логіки Томаса Шеллінга — одного з теоретиків ядерного стримування: у кризі важливо не просто мати силу, а зробити так, щоб противник вірив у твою готовність нею скористатися — і боявся того, що ти підеш далі, ніж обіцяв.

ШІ як «машина наслідків»

Є ще один аспект цієї історії, який часто губиться за етичними дискусіями: перевага ШІ полягає не лише в «логіці ескалації», а в здатності прораховувати наслідки з такою деталізацією, яку людина фізично не здатна охопити, ухвалюючи рішення в реальному часі.

Саме тому у військовому плануванні особливу цінність має поєднання мовних моделей ШІ з комп’ютерним моделюванням конфліктів. У такій зв’язці ШІ не лише пропонує стратегічний крок, а й одразу моделює його наслідки: масштаби руйнувань і зони ураження, очікувані військові та цивільні втрати, екологічні ефекти, ризики техногенних аварій, втрату інфраструктурного та промислового потенціалу противника, а також політичні й соціальні наслідки — від паніки та міграції до реакції союзників і санкцій. Те, що раніше було набором окремих експертних довідок і повільних штабних розрахунків, у зв’язці зі штучним інтелектом перетворюється на масове сценарне виробництво: тисячі варіантів, чутливість до дрібних змін, статистичне «підсвічування» найризикованіших траєкторій.

До американської дискусії потрібно додати ще один вимір, який часто залишають «у дужках»: Китай також прискорює розвиток військових технологій, зокрема військового штучного інтелекту — як для тренування армії, що має обмежений бойовий досвід, так і для створення майбутньої системи управління військами з елементами ШІ. І це підтверджують дані досліджень: із 2020 року китайські військові закупівлі системно включають сотні й тисячі «розумних» рішень, насамперед для навчання та інтелектуалізованих бойових систем.

І поки США сперечатимуться про межі застосування Claude, конкурентна логіка рухає процес уперед. Китай не чекатиме, доки Захід узгодить етичні формулювання.

Дослідження Пейна не доводить, що ШІ