Сотрудники государственных учреждений всё чаще используют ИИ без одобрения руководства, что несёт потенциальные угрозы безопасности и подрывает эффективность цифровой трансформации.
Так называемый «теневой ИИ» — использование искусственного интеллекта без официального разрешения — становится всё более распространённым в государственных структурах. Работники закупают недорогие ИИ-инструменты и интегрируют их в повседневные процессы без надлежащего контроля со стороны ИТ-служб.
По данным аналитиков, эти действия могут привести к утечкам данных, нарушению этических норм и потере доверия к государственным цифровым инициативам. Один из экспертов отмечает: «Когда технологии внедряются стихийно, без прозрачности и согласования, они создают больше проблем, чем решают».
Часто причиной такого поведения становится бюрократия или медленные темпы официального внедрения ИИ-инструментов. Чтобы повысить эффективность своей работы, сотрудники действуют самостоятельно, полагаясь на общедоступные сервисы, включая генеративные ИИ-платформы.
Эксперты предупреждают: если не принять меры по регулированию и обучению персонала, масштабные цифровые проекты могут оказаться под угрозой. Рекомендуется срочно разработать политику по использованию ИИ, внедрить систему аудита и сформировать прозрачные процедуры оценки рисков.
Также предлагается создать «белые списки» одобренных ИИ-инструментов, которые можно безопасно применять в государственных учреждениях. Это поможет не только защитить данные, но и ускорить адаптацию инноваций в рамках стратегии цифровой трансформации.
