В 2025 году компании по всему миру столкнулись с резким ростом утечек данных, вызванных активным внедрением генеративного ИИ и использованием облачных платформ.
Согласно новому отчёту ThreatLabz Data Risk Report, уровень угроз, связанных с обработкой конфиденциальной информации, продолжает стремительно расти. В фокусе — облачные приложения, персональные ИИ-инструменты и несанкционированное использование ИИ внутри организаций.
В отчёте анализировались миллиарды транзакций из более чем 250 миллиардов ежедневных операций, что позволило выявить тревожные тенденции: 58% всех инцидентов утечки данных приходятся на облачные сервисы. При этом 24% случаев связаны с передачей информации через незащищённые каналы, в том числе в публичные ИИ-модели.
Особое внимание в отчёте уделено так называемой "тени ИИ" — это ситуации, когда сотрудники используют генеративные ИИ-инструменты без разрешения или контроля со стороны компании. Такие практики создают серьёзную угрозу безопасности данных, поскольку модели могут сохранять, интерпретировать и передавать конфиденциальную информацию за пределы корпоративной инфраструктуры.
«Генеративный ИИ — это мощный инструмент, но он может превратиться в риск, если не контролировать его применение. Мы видим рост числа инцидентов, в которых ИИ используется сотрудниками вне регламентов и без участия служб безопасности», — подчёркивают аналитики ThreatLabz.
Среди уязвимых платформ чаще всего упоминаются Microsoft OneDrive, Google Drive и ChatGPT. Причём в ряде случаев речь идёт о целенаправленном выводе данных, а не просто о случайных утечках.
Эксперты прогнозируют дальнейшее усложнение ландшафта угроз по мере интеграции ИИ в бизнес-процессы и призывают компании инвестировать в политику контроля доступа, DLP-системы и обучение сотрудников.
«Важно понимать, что риски эволюционируют вместе с технологиями. Чем быстрее развивается ИИ, тем быстрее появляются новые векторы атак», — комментируют специалисты по кибербезопасности.
