Coalfire, один из лидеров в сфере кибербезопасности, объявила, что сумела взломать 100 % протестированных генеративных и агентных AI-систем. Это результат испытаний, в которых эксперты компании имитировали атаки реальных злоумышленников и выявили целый спектр уязвимостей в современных моделях искусственного интеллекта.
Вы удивлены? И не зря! Ведь пока бизнес спешит вписать AI в рабочие процессы, риски стирают границы между «виртуальным помощником» и «вором данных». С одной стороны, AI ускоряет операции, с другой — открывает дверь для утечек, нарушения конфиденциальности и «повторного использования» моделей злоумышленниками.
Что предлагает Coalfire?
Чтобы не оказаться на обочине цифровой войны, компания запустила полный набор атакующих и защитных AI-сервисов. Среди них:
- Оценка готовности (AI readiness assessment) по стандартам NIST AI RMF и AI Act ЕС;
- Моделирование угроз и безопасность ML-моделей в стиле OWASP;
- Ручное тестирование на проникновение генеративных приложений и LLM;
- Официальная AI-аттестация по NIST AI RMF;
- Консультации по управлению рисками AI.
«Мы атаковались так же, как реальные хакеры, – и убедились, что их методы работают», – рассказывает сооснователь Albert Invent Ник Толкен. А Charles Henderson из Coalfire добавляет: «Нельзя жать на газ AI, не проверив тормоза безопасности».
Почему это важно?
С развитием агентных AI-систем, которые сами отправляют письма, управляют сервисами и даже планируют задачи, риск потери контроля растёт экспоненциально. Без глубокого ручного тестирования и профессионального «взгляда хакера» уязвимые алгоритмы могут превратиться в средство шпионажа и кражи данных.
Coalfire напоминает: защищать AI нужно на каждом этапе – от проектирования до эксплуатации. Иначе завтра у вас могут «гулять» не только цифры, но и самые ценные секреты компании.
