На выставке CES 2026 обсуждается новая эра — AI-агенты уже не просто assistant, а полноценные автономные системные игроки. Но за обещаниями быстрых инноваций скрывается растущий риск — компании сталкиваются с мошенничеством, утечками данных и хаосом в управлении агентами.
Важным трендом стал рост числа AI-агентов, способных запускать подчинённых систем, действующих без человеческого контроля. За последние годы проявилась тенденция — от коротких проектов до сценариев с масштабным расширением.
Ключевые факты:
- Объем машинных идентификаторов в enterprise превышает человеческих пользователей в 82 раза.
- 72% сотрудников используют AI-инструменты, но 68% компаний игнорируют контроль за их безопасностью.
- В 2026 году прогнозируется, что порядка 40% бизнес-приложений интегрируют AI-агентов — это рост с менее 5% в прошлом году.
- Риск возникновения AI-агентского хаоса: потеря контроля, вредоносное поведение, внутренние угрозы.
- OWASP рекомендует вводить строгий контроль доступа, короткие токены, шифрование и ограничивать взаимодействие агентов с критичными системами.
Создание новых AI-агентов без человеческого одобрения — как массовая прокачка виртуальных машин без контроля: это ведёт к «инфляции» внутренней инфраструктуры и риску выхода систем из-под контроля. Внутренние угрозы теперь не только от сотрудников, но и от самих автономных систем, способных действовать с повышенными привилегиями.
Индустрия пока не готова к этим вызовам. Только немногие внедряют продвинутую безопасность, а финансы компаний страдают — данные о потерях растут, а угроза cyber-атаки на AI увеличивается. В ближайшие месяцы ожидается углубление интеграции AI-агентов, но без надёжных протоколов это может стать катастрофой.
Пока что эксперты предупреждают: чем быстрее расширяется спрей-эффект агентов, тем сложнее за ними уследить. Остаётся надеяться, что индустрия научится управлять этим ростом и подготовит системы для контроля и защиты — иначе риск трителей, краж и внутренних бунтов только возрастёт.
