Liquid AI вывела на сцену LFM2-24B-A2B — модель с 24 миллиардами параметров, работающая полностью локально без вызовов API, что идеально подходит для высоко конфиденциальных задач. В дополнение — LocalCowork, открытый десктоп-агент, который использует протокол Model Context Protocol для выполнения 75 инструментов, включая работу с файлами, OCR и сканирование безопасности. Этот подход позволяет предприятиям обеспечить полную приватность данных и исключить утечку информации, что критично в чувствительных областях.
Уникальность архитектуры: существо тут — эффективность и конфиденциальность
Модель основана на Sparse Mixture-of-Experts (MoE) архитектуре с 24 млрд параметров, активирующих около 2 млрд токенов. При использовании таких технологий команда Liquid AI достигла только 14,5 ГБ RAM на hardware типа Apple M4 Max (36 ГБ памяти, 32 GPU ядра) — это рекорд для столь мощных моделей. В тестах на конкретных данных модель показывает среднее время отклика в 385 мс на запрос. Ее точность составляет около 80% в одностепенных задачах, но при многоступенчатых цепочках эффективность снижается до 26% — из-за путаницы в ответах на неструктурированные запросы. Это означает, что продукт лучше подходит для человеком управляемых сценариев, а не полной автоматизации.
Что дальше для локальных моделей и приватных решений?
Очевидно, что такие решения задают тренд: мощные модели уже не требуют облака, а полностью работают на устройстве. В ближайшие 6-12 месяцев ожидается усиление внимания к оптимизации данных, созданию новых протоколов взаимодействия и расширению возможностей инструментов. Технологические гиганты и стартапы в этой области сосредотачиваются, чтобы вывести безопасность и скорость работы на новый уровень. Вопрос, кто сумеет управлять балансом между мощностью и конфиденциальностью, станет решающим. Те, кто раньше просто внедряли большие модели — теперь учатся глубже понимать свои данные и требования. Это будет важной тенденцией рынка, которая уже формирует будущее AI — не в облаках, а в локальных, безопасных средах.
