OpenAI анонсировала GPT‑5.3‑Codex‑Spark — исследовательский предварительный просмотр мини‑версии модели, специально созданной для задач программирования в реальном времени. Эта разработка стала результатом партнерства с Cerebras, использующего чип Wafer Scale Engine 3, что позволяет модели достигать скорости обработки свыше 1000 токенов в секунду при минимальной задержке.
GPT‑5.3‑Codex‑Spark оптимизировано для мгновенного отклика, что делает его почти мгновенным для разработчиков. На сегодняшний день оно доступно в рамках подписки ChatGPT Pro через приложение Codex, CLI и расширение для VS Code, с учетом специальных лимитов именно в исследовательском режиме. Модель поддерживает окно контекста в 128 тысяч токенов и работает только с текстом.
Главное назначение — взаимодействие, быстрые итерации, подготовка правок и командная работа, особенно в области программирования и разработки ПО. В релиз включены улучшения латентности, такие как снижение на 80% накладных расходов и сокращение времени получения первого токена в два раза за счет использования постоянных WebSocket-соединений. Также повысилась эффективность потоковой передачи ответов, переработана инфраструктура inference и реализовано улучшение инициализации сессий.
ЭтаPreview ставит перед собой задачу исследовать новые сценарии взаимодействия и расширить потенциал модели. OpenAI планирует далее развивать доступ, мощность и вводить большие модели с расширенной длиной окна и мультимодальными входами. В компании уверены — Codex‑Spark прошел тестирование на безопасность и не представляет высоких рисков с точки зрения кибербезопасности или биологических угроз. В будущем команда хочет соединить быструю реальную обратную связь с долгосрочным мышлением, чтобы расширить возможности и повысить естественность диалогов.



