OpenAI анонсировала GPT-5.3-Codex-Spark — модель, созданную для максимальной скорости. В отличие от стандартного GPT-5.3-Codex, которая делала ставку на глубокое рассуждение, Spark ориентирована на почти мгновенную реакцию благодаря интеграции с чипом Cerebras WSE-3.
Эта новая разработка показывает скорость в 1000 токенов в секунду — значительно превышая показатели любого GPU. Всё благодаря огромному на чипе объему памяти, невероятной пропускной способности и низкой задержке, что делает её идеальной для задач, где важны быстрота и частое обновление результатов.
Технология WSE-3 — это один крупный кремниевый чип, который по-компьютерному сравним с массивным листом силикона. Он избавил разработчиков от разобщенности GPU-кластеров — теперь всё в одном «микросхемном монолите», что кардинально снижает latency и ускоряет вывод результата.
Для повышения скорости OpenAI оптимизировала сетевое взаимодействие — перешла на постоянные WebSocket-соединения, что уменьшило время ответа на 80%, ускорило первую токенизацию на 50% и снизило обработку каждого токена на 30%. В результате разработчики могут реально управлять процессом, прерывать и перенаправлять модель по ходу выполнения.
Но не всё так идеально. GPT-5.3-Codex-Spark создана chiefly для высокопроизводительных задач — она уступает по глубине рассуждений и статистике точности классическому GPT-5.3-Codex. В benchmarkах как SWE-Bench Pro и Terminal-Bench 2.0 новая модель показывает меньшую эффективность, а из-за меньшего объёма она не подходит для сложных и критически безопасных решений.
Сейчас она есть у пользователей ChatGPT Pro и разработчиков через API, расширения для VS Code и CLI-интерфейсы. Задачи для неё — быстрый кодинг, генерация и быстрые итерации с минимальной задержкой.
Взгляд в будущее. В индустрии отчётливо чувствуется тренд: переход от скоростных экспериментов к созданию действительно оптимизированных решений. Уже сейчас ясно, что главная ценность — это скорость и способность в реальном времени управлять моделью, а не только её рассуждения. В ближайшие 6-12 месяцев полностью вырисуются практики масштабирования таких решений и расширения их применения.
Если идти дальше, то это лишь начало: будущие модели будут сочетать в себе скорость, безопасность и способность к сложным рассуждениям. Но пока что — главное — быстро и точно отвечать на задачи в режиме реального времени, не теряя строения и контроля.



