OpenAI анонсувала випуск GPT-5.5, призначеного для виконання завдань з незначними вказівками.
Компанія OpenAI представила нову модель штучного інтелекту GPT-5.5, яка ефективніше виконує завдання без необхідності в детальних інструкціях. Запуск відбувається на фоні зростаючої конкуренції з боку Anthropic у боротьбі за корпоративних клієнтів.

Основні можливості нової моделі
Розробник ChatGPT стверджує, що GPT-5.5 краще підтримує науковців, спрощує процес розробки програмного забезпечення та здатна виконувати більш складні завдання. Зокрема, модель може працювати з електронною поштою, таблицями, календарями та іншими застосунками, виконуючи команди користувача без постійного контролю.
За інформацією Bloomberg, на брифінгу для журналістів Брокман підкреслив, що нова модель самостійно розуміє завдання і справляється з невизначеністю, що робить взаємодію більш інтуїтивною.
У OpenAI зазначають, що GPT-5.5 є надзвичайно потужною у сфері кодування — одного з найприбутковіших напрямків у галузі ШІ. Також модель стане основою для майбутнього «суперзастосунку», який об’єднає чат-бот, інструменти для програмування та веббраузер.
Крім того, нещодавно компанія представила ранню версію моделі для прискорення розробки ліків. GPT-5.5 розглядається як партнер для досліджень, здатний перевіряти гіпотези та аргументи, а в перспективі — частково автоматизувати наукову діяльність.
ШІ-битва за бізнес та IPO
OpenAI та Anthropic наразі активно змагаються за ширше коло бізнес-клієнтів, намагаючись компенсувати значні витрати на розробку складних ШІ-систем. Обидві компанії роблять акцент на рішення для програмування, кібербезпеки та наукових досліджень, а також готуються до можливих IPO вже цього року.
Останнім часом Anthropic зміцнила свої позиції завдяки попиту на інструменти для програмування. Раніше компанія представила модель Mythos, здатну виявляти вразливості в критичному програмному забезпеченні, доступ до якої наразі обмежений.
Доступність
Модель GPT-5.5 стала доступною для платних користувачів ChatGPT та професійного інструменту для розробників Codex вже з цього четверга, 23 квітня.