Японская компания Kioxia представила новую технологию AI-SAQ, которая призвана снизить затраты на DRAM и ускорить инференс ИИ-моделей за счёт эффективного управления памятью.
В рамках конференции Flash Memory Summit 2025 компания Kioxia анонсировала архитектуру AI-SAQ (AI Semantic Aware Quantization), разработанную для ускорения инференса в задачах машинного обучения, особенно в условиях ограниченных ресурсов памяти. Технология позволяет значительно сократить объём необходимой DRAM, снижая затраты на инфраструктуру без потери точности при выполнении ИИ-задач.
AI-SAQ работает на уровне предварительной обработки данных и оптимизирует размещение параметров модели в энергонезависимой памяти. Это позволяет выполнять инференс с меньшими затратами и повышенной энергоэффективностью. В компании отмечают, что решение особенно актуально для приложений на периферийных устройствах (edge), где ресурсы и энергопотребление критичны.
По словам представителей Kioxia, технология ориентирована на использование с флеш-памятью и может применяться в широком спектре задач — от компьютерного зрения до обработки естественного языка. Внутренние тесты показали, что AI-SAQ позволяет в отдельных сценариях сократить использование DRAM более чем на 40% при сохранении сопоставимого уровня производительности.
Разработка является частью стратегии Kioxia по расширению роли энергонезависимой памяти в системах ИИ, где традиционно доминировала DRAM. Специалисты компании подчеркивают, что подобный подход открывает путь к созданию более доступных и масштабируемых решений для ИИ-инфраструктуры.
Эксперты отрасли оценивают инициативу как потенциально значимую: в условиях стремительного роста масштабов ИИ-нагрузок и дефицита памяти подобные технологии могут сыграть ключевую роль в снижении затрат и ускорении внедрения ИИ в устройствах нового поколения.
