З’явилася нова “Премія Дарвіна” у сфері штучного інтелекту, яка покликана відзначати найбільш необдумане чи небезпечне використання технологій, повідомляє EuroNews. Організатори заявляють, що нагорода присуджується не самим алгоритмам, а людям, які застосовували їх “з усією обережністю малюка з вогнеметом”.
Премія не пов’язана з відомою жартівливою Darwin Awards, що відзначає людей, які загинули абсурдними способами. У випадку зі штучним інтелектом мета — “винагородити” компанії чи розробників, які проігнорували очевидні попереджувальні знаки та допустили “виняткову помилкову оцінку” перед виходом продукту на ринок.
Додаткові бали нараховуються номінантам, чиї рішення потрапили в заголовки світових медіа, викликали надзвичайні ситуації або навіть створили нові напрями досліджень у сфері безпеки штучного інтелекту.
Організатори залишилися анонімними, проте повідомили, що частково перевірятимуть номінації за допомогою великих мовних моделей — ChatGPT від OpenAI, Claude від Anthropic та Gemini від Google. Алгоритми виставлятимуть оцінку правдивості історії за десятибальною шкалою, після чого адміністратори вирахують “золоту середину” та оголосять результат. Якщо середній бал перевищить п’ять, історія вважатиметься перевіреною та зможе претендувати на відзнаку.
Серед перших номінантів — компанія McDonald’s, яка створила чат-бота “Олівію” для пошуку роботи. Система була захищена елементарним паролем “123456”, що призвело до витоку даних 64 мільйонів претендентів на роботу.
Ще одним претендентом на винагороду стала OpenAI за запуск своєї останньої моделі GPT-5. Французький спеціаліст з обробки даних Сергій Березін заявив, що зміг змусити модель виконувати шкідливі інструкції, не використовуючи при цьому прямих небезпечних команд.
Голосування за переможців триватиме у січні, а результати оголосять у лютому. Єдиний приз для лауреатів — “безсмертне визнання їхнього внеску в розуміння того, як не слід застосовувати штучний інтелект”. Організатори сподіваються, що відзнака стане попередженням і вмотивує компанії ретельніше тестувати ШІ-системи перед їх впровадженням.
Низка світових компаній опинилися в центрі скандалів через небезпечні збої та неконтрольовану поведінку чат-ботів. Це підживило дискусії про необхідність жорсткішого регулювання технологій.