Три из четырех организаций используют уязвимые ИИ-пакеты в облачных средах, подвергая себя рискам безопасности, говорится в свежем отчете специалистов по кибербезопасности.
Согласно данным аналитиков, более 70% компаний при развертывании AI-моделей в облаке используют библиотеки, содержащие критические уязвимости. Это может привести к утечке данных, нарушению работы систем и компрометации инфраструктуры.
«Наша команда обнаружила, что организации повсеместно интегрируют ИИ-компоненты без должной проверки их безопасности, что особенно опасно в масштабируемых облачных системах», — прокомментировал один из авторов отчета.
Эксперты отмечают, что разработчики часто полагаются на популярные open-source решения, не проверяя наличие известных уязвимостей. Например, такие библиотеки, как TensorFlow и PyTorch, нередко используются без обновлений и патчей.
Кроме того, исследование подчеркивает, что более 50% выявленных уязвимых библиотек эксплуатируются в реальных атаках, что повышает риск для организаций, особенно в секторах здравоохранения, финансов и государственного управления.
Специалисты рекомендуют внедрение процессов SCA (Software Composition Analysis) и регулярный аудит зависимостей как обязательные меры кибербезопасности в ИИ-разработке.
Прогнозы экспертов указывают на рост подобных инцидентов в будущем, если компании не начнут внедрять системные меры по обеспечению безопасной интеграции ИИ-решений.
