Генеративный искусственный интеллект стремительно проникает в корпоративную среду, создавая одновременно новые возможности и новые риски.
Согласно недавнему анализу, более 80% организаций уже внедрили или активно тестируют генеративный ИИ в различных бизнес-процессах. Однако столь стремительное распространение сопровождается ростом инцидентов, связанных с утечками данных, неправомерным использованием информации и недостаточным контролем за использованием технологий.
Эксперты отмечают, что главными источниками рисков становятся сотрудники, использующие ИИ-сервисы без согласования с отделами информационной безопасности. В 2024 году такие "теневые" ИИ-активности стали причиной утечки чувствительных данных в 40% компаний.
«Мы наблюдаем резкий рост числа случаев, когда данные попадают в общедоступные ИИ-модели без соответствующей защиты. Это вызывает серьезные опасения у корпоративных клиентов», — отмечают аналитики.
Особое внимание обращается на то, что большинство утечек происходит не из-за внешних атак, а по вине внутренних пользователей, не прошедших обучения безопасному обращению с ИИ-инструментами.
По прогнозам специалистов, к концу 2025 года число инцидентов, связанных с использованием генеративного ИИ, может удвоиться. Это требует срочных мер: от создания четкой политики использования ИИ в компаниях до внедрения специализированных систем мониторинга и фильтрации данных.
Параллельно развиваются технологии защиты, включая решения, способные обнаруживать несанкционированное использование ИИ, а также защищать конфиденциальную информацию на этапе её ввода в модели.
Эксперты подчеркивают: несмотря на риски, генеративный ИИ остается одним из ключевых факторов трансформации бизнеса, и отказ от его применения — не вариант. Однако только при условии строгой кибербезопасности его потенциал может быть реализован без угроз.
