IntellectNews
IntellectNews
    IntellectNews
    • Анализ изображений
    • Бизнес-исследования
    • Видео и анимация
    • Генерация и преобразование голоса
    • Генерация изображений
    • Дизайн интерьеров и архитектура
    • Другое
    • Здоровье и благополучие
    • Искусство и креативный дизайн
    • Исследования и анализ данных
    • Маркетинг и реклама
    • Музыка и аудио
    • Написание и редактирование
    • Обнаружение ИИ и антидетекция
    • Образование и перевод
    • Офис и продуктивность
    • Повседневная жизнь
    • Право и финансы
    • Программирование и разработка
    • Социальные сети
    • Управление бизнесом
    • Чат-боты и виртуальные собеседники
    • Новости ИИ
      • Автоматизация
      • Общество и рынок труда
      • ИИ в науке
      • ИИ в развлечениях
      • Персональный ИИ
      • Робототехника и автономные системы
      • Эксперименты и тесты
      • Новости индустрии ИИ
      • Технологии и разработки
      • Применение ИИ
      • Законодательство и этика
    • Блог
    • Промты
      • Business
    Поиск
    Авторизация
    Забыли пароль?
    Регистрация
    • Главная
    • Новости
    • Технологии и разработки
    • Инновация Engram: условная память для масштабируемых LLM

    Инновация Engram: условная память для масштабируемых LLM

    Автоматизация
    Влияние ИИ на общество и рынок труда
    ИИ в науке
    ИИ в развлечениях
    Персональный ИИ и инструменты
    Робототехника и автономные системы
    Эксперименты и тесты
    Новости индустрии ИИ
    Технологии и разработки
    Применение ИИ
    Законодательство и этика
    Инновация Engram: условная память для масштабируемых LLM
    Инновации в архитектуре больших языковых моделей

    Революционные трансформеры используют механизмы внимания и архитектуры Mixture-of-Experts, чтобы масштабировать вычисления, но у них отсутствует встроенный способ поиска знаний. Обычно они перепрорабатывают одни и те же паттерны, что ведёт к неэффективности.

    Компания DeepSeek представила модуль Engram, который добавляет условную память, дополняющую MoE и позволяющую быстро искать статичные фразы и сущности через обновлённую версию N-грамм. Такой подход превращает классические embedding в масштабируемый и постоянный по времени поиск памяти, интегрированный прямо в ядро трансформера.

    Engram — это память, которая хранит статичные паттерны, что позволяет модели сосредоточиться на сложных рассуждениях и долгосрочных связях. Она использует хешированные таблицы N-грамм, многоголовое хеширование и контекстное управление активацией, чтобы быстро доставать нужные знания.

    На больших моделях типа Engram-27B и Engram-40B она делит параметры с MoE-бэкбоном и использует до 18,5 миллиарда параметров памяти. Исследования показывают, что при делении ресурсов на память и экспертов модели получают преимущества в качестве, выигрывая у чистого MoE, даже выделяя лишь 25% параметров на память.

    Эксперименты на предобучении на 100 миллиардов токенов выявили, что увеличение таблицы памяти продолжает снижать ошибку по мере роста — память становится всё более ценным ресурсом без увеличения вычислительных затрат.

    При обучении моделей на 262 миллиарда токенов Engram и MoE демонстрируют разные показатели. Engram-27B показывает лучшую перплексию и точность на задачах типа MMLU, CMMLU и логических тестах, а также в задачах программирования и математики, показывая, что добавление статической памяти реально повышает качество. Особенно хорошо заметно улучшение при выполнении задач, связанных с фактологическими знаниями и глубокой логикой.

    После тренировки инженеры расширили окно контекста до 32 тысяч токенов, использовав YaRN. Исследования показывают, что Engram-27B быстрее стабилизирует свои представления и лучше взаимодействует с глубинными слоями MoE, что говорит о том, что память фактически увеличивает глубину модели, помогая ей лучше фиксировать и использовать статичные знания.

    Постоянные абляции и настройки показывают необходимость правильной ранней интеграции Engram и мультигнучных связей для максимальной эффективности. Анализы через LogitLens и сравнение Kernel Alignment подтверждают, что Engram усиливает фукции памяти внутри модели и способствует фиксации фактических знаний, а не случайных шумов.

    Главное — Engram добавляет мощную статичную память, которая позволяет динамически сосредоточиться на reasoning и генерации, перераспределяя 20-25% параметров ресурсов. Этот подход превосходит чистый MoE по многим задачам, требующим фактических знаний, и помогает расширять контекст и глубину модели без разрушения эффективности.

    n8n-bot
    16 января 2026, 06:08
    Технологии и разработки

    Новости new

    Почему опасность слишком общий метрик мешает создавать действительно надёжные ИИ модели
    Почему опасность слишком общий метрик мешает создавать действительно надёжные ИИ модели
    Технологии и разработки
    21 января 2026, 06:01
    Как подготовка данных меняет будущее безопасного ИИ: новые исследования и перспективы
    Как подготовка данных меняет будущее безопасного ИИ: новые исследования и перспективы
    Технологии и разработки
    20 января 2026, 07:16
    Что Kickstarter учит нас о завершении целей: неожиданные уроки успеха и провала
    Что Kickstarter учит нас о завершении целей: неожиданные уроки успеха и провала
    Технологии и разработки
    20 января 2026, 07:15
    Как повышенный уровень CO2 может влиять на когнитивные функции: новые исследования и практические идеи
    Как повышенный уровень CO2 может влиять на когнитивные функции: новые исследования и практические идеи
    Технологии и разработки
    20 января 2026, 07:12
    Выберите обязательные опции

    Мы используем файлы cookie и другие средства сохранения предпочтений и анализа действий посетителей сайта. Подробнее в Согласие на обработку персональных данных. Нажмите «Принять», если даете согласие на это.

    Принять
    IntellectNews

    Вы принимаете условия политики в отношении обработки персональных данных и пользовательского соглашения каждый раз, когда оставляете свои данные в любой форме обратной связи на сайте

    IntellectNews © 2026

    IntellectNews

    Вы принимаете условия политики в отношении обработки персональных данных и пользовательского соглашения каждый раз, когда оставляете свои данные в любой форме обратной связи на сайте, IntellectNews © 2026