На выходных Гао Далие следил за новостями ИИ в Twitter, когда MIT опубликовала прорывную работу о ключевой проблеме больших языковых моделей. Объяснение очень простое: эффективность ИИ значительно возрастает, когда он действует дважды.
За последние два года большинство крупных моделей соревновались за расширение своих контекстных окон. Gemini увеличил окно до миллионов токенов, серия GPT вложилась в дорогостоящие эксперименты, а Llama нацелилась на десятки миллионов. Но увеличить окно — не значит научиться читать и запоминать всё подряд. Чем больше контекст, тем сложнее правильно его обработать.
Популярным подходом стал Retrieval-Augmented Generation (RAG), который разбивает длинные документы на части, сохраняет их в векторной базе и ищет релевантные сегменты по запросу. Но этот метод зависит от качества поиска и плохо справляется со сложными вопросами, когда нужно объединять информацию из разных частей.
Авторы статьи приглашают создать аккаунт, чтобы прочитать всю историю целиком — контент эксклюзивный, для подписчиков. Gao Dalie — ассистент-исследователь в NC State University, увлечённый развитием ИИ, RAG и генеративных моделей. Его работы доступны на Linktree. Ведущее издание Towards AI с более чем 103 тысячами подписчиков делает ИИ более понятным, предлагает практические сертификаты и освещает последние тренды: от новых RAG-фреймворков до гипотез о будущем ИИ.
Разработчики сейчас сталкиваются с парадоксом: обещания новых архитектур не всегда оправдываются. Времена, когда RAG казалась панацеей, уступили популярности пониманию, что главное — правильная подготовка данных и баланс между скоростью и точностью.
Взгляд вперёд показывает, что индустрия движется к более зрелому подходу: от «быстро сделать» к «правильно построить». Те, кто раньше осознают необходимость оптимизации и контроля данных, выигрывают. В ближайшие месяцы можно ожидать появления новых инструментов для масштабирования и мониторинга, а открытые вопросы — как обеспечить надежность и безопасность при росте объёмов данных.
Итак, главный вывод: если хотите построить устойчивую RAG-систему, спешка и недооценка подготовки данных могут стоить дорого. Тех, кто научится правильно балансировать между архитектурой и качеством данных, ждёт успех — возможно, именно на этом основано будущее искусственного интеллекта.

