Индустрия ИИ сталкивается с вызовом: как дать моделям возможность надежно работать в условиях ограниченных ресурсов?
Именно это пыталась решить Google, выпустив ModelGemma — версию модели Gemma 3 с 270 миллионами параметров, специально обученную для функционирования как агент на границе сети.
ModelGemma использует архитектуру трансформера и оптимизирована для вызова функций через интерфейсы API и команд, а также обучена на шести триллионах токенов, включая данные публичных API, взаимодействия, запросы и ответы.
Ключевая особенность — строгая структура диалога с ролями, которая обеспечивает надежную работу в производственных системах.
На основе этого подхода моделей значительно повышается точность, особенно в узкоспециализированных областях. Например, при финишной настройке для мобильных действий точность увеличилась с 58% до 85%.
Модель отличается малым размером — 0,3 миллиарда параметров — и поддержкой квантования, что позволяет запускать её даже на смартфонах, ноутбуках или одноплатных компьютерах типа NVIDIA Jetson Nano.
Google демонстрирует три кейса: управление устройствами (Mobile Actions), голосовую игру (Tiny Garden) и физические головоломки (Physics Playground). Все они показывают, как модель умеет работать с несколькими шагами и функциями в условиях локальных ресурсов.
Важная идея — правильная настройка и оптимизация под конкретную задачу позволяют превзойти ожидания и повысить точность работы системы.
В ближайшие месяцы индустрия продолжит переходить к более компактным, энергоэффективным моделям с поддержкой квантования и локального выполнения задач. Те, кто освоит эти подходы, получат конкурентное преимущество.
Остается открытым вопрос: как масштабировать такие модели для работы с миллионами API и данных? Ответ, похоже, ищут прямо сейчас. Время показывает: небольшие модели с четкой структурой — это будущее edge-методов в ИИ.
