На индустрию снова обрушился парадокс: обещания об универсальности и простоте использования RAG-систем столкнулись с суровой реальностью. В то время как многие ожидали, что такие модели быстро займут рынок, на практике команда Google показала: для реальной работы важны не только параметры, но и тщательная настройка.
FunctionGemma — это специализированная версия Gemma 3 с 270 миллионами параметров, настроенная именно для вызова функций, а не для ведения диалогов. Модель работает на архитектуре Gemma 3 и поддерживает обработку контекста до 32 768 токенов, что важно при работе с json-данными и функциями.
Проект создан для быстрого внедрения и работы без серверов — именно с этой целью её тренировали на 6 триллионах токенов, включая определения API, сценарии использования и запросы с ответами. Важная особенность — модель использует оформленные шаблоны диалогов с контрольными токенами, которые позволяют ей различать пользовательский ввод, схемы и выполнения функций.
Опыт показывает — точное и грамотное fine-tuning значительно повышает точность: в benchmark Mobile Actions точка попадания выросла с 58% до 85%. Это доказывает: небольшие модели при правильной настройке могут конкурировать с крупными системами — и делают это прямо на устройствах.
Благодаря компактности и поддержке квантизации, FunctionGemma запускается на смартфонах, ноутбуках и даже маленьких ускорителях типа Nvidia Jetson Nano. Google демонстрирует её в нескольких решениях:
- Mobile Actions — оффлайн-ассистент для управления гаджетами, настроенный под конкретные задачи,
- Tiny Garden — управление голосом для игр с функциями,
- Physics Playground — браузерный симулятор физики на базе Transformers.js.
Эти примеры показывают: даже 270-миллионная модель способна выполнять сложные цепочки логики без кучи серверов, если правильно её донастроить и интегрировать с инструментами.
Ключевые выводы: FunctionGemma — модель для вызова функций, а не для聊天а. Точная настройка и грамотное использование шаблонов кардинально повышают результат. В ближайшие месяцы ожидается дальнейшее развитие — с поддержкой автоматической адаптации и расширением промышленных сценариев. Важная задача — масштабировать работу на миллионы функций.
Индустрия переходит от идеи «сырых» моделей к практике точечных, мотивированных задачами решений. Те, кто уже используют Fine-tune и гибкую настройку, получают конкурентное преимущество. Время тестировать и внедрять малые модели — именно сейчас.
