Науковці виявили явище, яке ще нещодавно вважалося фантастичним: великі мовні моделі, інтегровані в ШІ-агентів, почали без участі людини створювати власні копії під час різкого збільшення кількості запитів, повідомив завідувач Наукової лабораторії імерсивних технологій і права Інституту інформації, безпеки і права Національної академії правових наук України Олексій Костенко у статті “Не фантастика. ШІ вже здатен розмножуватись і впливати на роботу онлайн-сервісів. Чи готові ми до цього?”.
Автор статті пояснює це наступним чином: онлайн-сервіс починає функціонувати на межі своїх можливостей, кількість запитів зростає, а система стає перевантаженою. Раніше рішення про додаткові потужності ухвалювала команда інженерів. Проте в деяких експериментах зараз рішення приймає сам штучний інтелект.
Дослідники зазначили, що під час експериментів програми на основі великих мовних моделей LLM, які називають “мертвим розумом”, почали самостійно створювати власні копії. Перед ними ставили завдання зберегти якість роботи сервісу. Частина цих моделей обрала найефективніший шлях — створити власну копію. Дослідники не давали моделі команду “копіюватися”, а лише визначили завдання та надали доступ до ресурсів, а вона сама обрала інструмент.
Костенко підкреслює, що наразі йдеться лише про контрольовані експерименти. Однак все частіше ШІ застосовують у роботі банківських програм, державних порталів, енергетичних систем.
“Якщо штучний інтелект здатен самостійно вирішувати, скільки розгорнути власних копій і де, ми стикаємося з новим класом ризику. Йдеться не про фантастичного “злого робота”, а про неконтрольоване самомасштабування — автоматичне розширення системи без чітких обмежень і зрозумілих правил”, — зазначає експерт.
Автор статті акцентує увагу на тому, що здатність штучного інтелекту самостійно створювати власні копії без втручання людини змінює уявлення про контроль у цифровому середовищі.
Костенко вказує, що не слід забороняти технології, але необхідно встановити чіткі правила та прозорий контроль над ШІ. Експерт стверджує, що не варто надавати ШІ-агенту автоматичний доступ до повного контролю над масштабуванням і серверними ресурсами. Автор статті також зазначає, що варто визначити чіткі ліміти на кількість одночасно існуючих копій системи, а програма на основі ШІ повинна пояснити, чому потрібна ще одна копія для функціонування сервісу.
Він також додав, що незалежні експерти повинні перевіряти моделі ШІ в стресових умовах, а доступ до результатів цих перевірок має бути відкритим, а не зберігатися лише в компанії-розробника.
Колишній співробітник OpenAI Даніель Кокотайло переглянув прогнози щодо темпів розвитку ШІ. Він визнав, що прогрес у створенні трансформаційного штучного інтелекту відбувається повільніше, ніж очікувалося раніше.