OpenAI запустила GPT-5.3-Codex-Spark - модель для мгновенного редактирования кода

  ·   чтения   ·     ·  
OpenAI выпустила Codex-Spark - первую модель для кодирования в реальном времени со скоростью более 1000 токенов в секунду на чипах Cerebras.
OpenAI запустила GPT-5.3-Codex-Spark - модель для мгновенного редактирования кода

12 февраля 2026 года OpenAI выкатила GPT-5.3-Codex-Spark - первую модель, заточенную под редактирование кода в реальном времени прямо внутри Codex. Это младший брат GPT-5.3-Codex, настроенный на мгновенные правки и быстрые итерации. Модель крутится на железе с ультранизкой задержкой и выдаёт больше 1000 токенов в секунду.

Целевая аудитория - разработчики, которым нужны короткие циклы обратной связи: точечные правки, переделка логики, доводка интерфейса с мгновенным результатом, без томительного ожидания. По умолчанию Codex-Spark работает в облегчённом режиме, фокусируясь на минимальных целевых изменениях и не запуская тесты, пока вы сами не попросите. На старте модель работает только с текстом, контекстное окно - 128 тысяч токенов, лимиты запросов отдельные и не влияют на стандартные квоты. OpenAI предупреждает, что в пиковые часы возможны очереди, пока мощности наращиваются.

График сравнения производительности моделей GPT-5.3-Codex-Spark, GPT-5.3-Codex и GPT-5.1-Codex-mini.

Сначала доступ получили пользователи ChatGPT Pro через последнюю версию приложения Codex, CLI и расширение для VS Code. API пока открыт только узкому кругу партнёров, тестирующих интеграции. OpenAI называет это ранним доступом - пока дорабатывают опыт использования и расширяют серверные мощности. Более широкий доступ обещают в ближайшие недели.

Сравнение интерфейсов GPT-5.3-Codex и работающей на ней игры «Змейка».

Интересно, что OpenAI переработала весь конвейер запрос-ответ, а не просто ускорила модель. Теперь для Codex-Spark по умолчанию используется постоянное WebSocket-соединение, плюс оптимизации снизили накладные расходы на каждый запрос на 80%, на токен - на 30%, а время до первого токена - вдвое. Этот низколатентный путь скоро станет стандартом и для других моделей.

Надпись "GPT-5.3-Codex-Spark" на абстрактном сине-фиолетовом фоне.

Гистограмма сравнения точности различных моделей GPT-Codex на бенчмарке Terminal-Bench 2.0.

Главная фишка - железо: Codex-Spark работает на Cerebras Wafer-Scale Engine 3, специализированном чипе размером с целую кремниевую пластину. Это первый результат партнёрства OpenAI и Cerebras, анонсированного в январе. Cerebras видит в этом способ открыть новые сценарии использования благодаря сверхбыстрому выводу, а команда OpenAI подчёркивает, что вафельная архитектура дополняет их GPU-парк для задач, чувствительных к задержкам.

По безопасности OpenAI заверяет: Codex-Spark прошла ту же подготовку, что и основные модели, включая обучение на киберугрозах, и стандартную оценку перед развёртыванием. Компания не ожидает, что модель достигнет порога высоких возможностей в кибербезопасности или биологии по их Preparedness Framework.

Стратегически Codex-Spark дополняет режим "работай часами" у GPT-5.3-Codex. Идея OpenAI - двухрежимный Codex: быстрая коллаборация в реальном времени для итераций и долгосрочное рассуждение с выполнением для глубокой работы. В планах - объединить оба режима в одном рабочем процессе.

Смотрите также

Логотип Telegram

Будьте в курсе новых нейросетей — подпишитесь на наш Telegram-канал!

Ежедневные обзоры свежих AI-инструментов, лайфхаки и инструкции прямо в вашем мессенджере.

AILibri – главная страница
Ctrl / ⌘+K