В современном мире агентные ИИ-системы сталкиваются с необходимостью решать сложные задачи самостоятельно. Для этого требуется значительная глубина моделей, чтобы эффективно выполнять рассуждения, кодирование и анализ длинных контекстов.
Зачем нужна новая модель?
Многоагентные системы создают в 15 раз больше токенов, чем стандартные чаты, что приводит к «взрыву контекста». Это может вызвать отклонение от изначальной цели. Использование мощных моделей для каждой подзадачи делает такие приложения слишком дорогими и медленными.
Сегодня мы представляем Nemotron 3 Super, новую модель, которая решает эти проблемы. Она подходит для сложных многоагентных приложений, таких как разработка ПО и кибербезопасность.
Гибридная архитектура MoE: что это такое?
Nemotron 3 Super использует гибридную архитектуру смеси экспертов (MoE), что позволяет значительно повысить эффективность вычислений. Модель поддерживает контекстное окно на 1 миллион токенов, что дает агентам долговременную память.
Она полностью открыта, что позволяет разработчикам настраивать и оптимизировать её под свои нужды.
Особенности Nemotron 3 Super
В отличие от предыдущих версий, Super предлагает инновации, такие как Latent MoE и Multi-token prediction (MTP). Эти технологии позволяют модели использовать больше экспертов за те же ресурсы и предсказывать несколько токенов сразу, что ускоряет генерацию данных.
Технические детали и преимущества
Модель оптимизирована для работы с NVIDIA Blackwell, что снижает требования к памяти и ускоряет вывод данных. Обучение происходит в три этапа: предобучение, тонкая настройка и обучение с подкреплением.
На новом бенчмарке PinchBench Nemotron 3 Super показала лучшие результаты в своём классе.
Как воспользоваться моделью?
Доступ к Nemotron 3 Super можно получить через build.nvidia.com. Модель доступна для настройки и развертывания на собственной инфраструктуре, обеспечивая максимальную приватность и безопасность.
