В последние месяцы мир технологий наблюдает за стремительным развитием AI-агентов, таких как OpenClaw, Moltbot и Clawdbot. Эти системы, созданные для интеграции с мессенджерами и платформами, обещали революцию в автоматизации. Но за легкостью внедрения скрываются серьёзные опасности.
Парадокс в том, что движение от концептов к реальным внедрениям сопровождается ростом уязвимостей. Вендоры, такие как разработчик OpenClaw, используют модели от Anthropic и OpenAI, чтобы расширить функционал. Но безопасность этих решений под угрозой: системы подвержены атакам через scam-рассылки, контроль системы, prompt injections — всё, что может привести к потере данных, взлому или даже системному коллапсу.
Компаниям приходится постоянно исправлять уязвимости — например, недавно был устранён баг, позволяющий удалённое выполнение кода. Однако эксперты предупреждают: делиться полностью контролируемыми системами — как открывать дверь злоумышленникам. В открытом коде и базах данных найдены ключи API, что даёт преступникам возможность создавать фальшивых AI-ботов или распространять дезинформацию.
Дополнительные угрозы связаны с возможностью загрязнения обучающих данных, что особенно опасно при локальной установке AI без должных мер безопасности. Вместе с тем, развитие рынка требует новых правил: как проверять spyware, защищать ключи и обновлять системы.
В будущем эксперты ожидают, что недоверие к открытым и гибко настраиваемым AI усилится, а разработчики сосредоточатся не только на функциональности, но и на безопасности. Пока же мы вынуждены балансировать между инновациями и рисками, чтобы не оказаться в ловушке новых технологий.



