Недавно исследователи продемонстрировали, что «умный» вредоносный код, обученный на базе открытой языковой модели Qwen 2.5, смог обходить защиту Microsoft Defender примерно в 8 % случаев, несмотря на усилия инженеров безопасности.
За создание такого «самообучающегося» зловреда, способного испытывать и корректировать свои приёмы в песочнице, понадобилось всего три месяца и около $1 500 вычислительных ресурсов — сущие копейки по меркам киберпреступности.
Для сравнения: другие ИИ-модели, вроде Anthropic Claude и DeepSeek R1, показали эффективность менее 1 %, а Qwen 2.5 уверенно вырвалась вперёд, добившись отметки в 8 %.
Что это значит для нас?
Честно говоря, 8 % — не катастрофа. Но когда атаки становятся «умнее» и быстрее учатся обходить барьеры, даже такой пробой звучит тревожно. Представьте, что одна из десяти попыток всё же достигает цели.
Эксперты предупреждают: если защитники не нарастят темп и не обновят алгоритмы, генеративный ИИ может дать новый толчок хакерам, позволяя им создавать «наборы для взлома» почти по принципу «plug-and-play».
Подробности этой работы и методику обучения представят на конференции Black Hat 2025 — и это отличный шанс для специалистов по кибербезопасности пересмотреть свои стратегии и подтянуть защиту.
