В индустрии разработки AI всё чаще появляется риск: некачественный, ускоренный vibe coding и быстрое создание AI-агентов вызывают серьёзные пробелы в безопасности. Вспоминаем случай с Moltbook — социальной сетью, полностью управляемой AI-агентами, которая упала под ударом утечки: из базы вывалилось 1,5 миллиона API-ключей и 35 тысяч адресов пользователей. Всё из-за неправильной конфигурации базы данных, которая стала следствием именно vibe coding — когда важен скорость, а не безопасность.
Эта история лишь вершина айсберга: исследования в Колумбийском университете показывают, что AI-агенты часто жертвуют безопасностью ради быстроты — оставляют проверку данных, отключают аутентификацию, вставляют опасные скрипты без санитации. Разработчики часто находят API-ключи прямо в клиентском коде, базы данных становятся общедоступными, а внедрение таких функций как dangerouslySetInnerHTML без проверки — классика уязвимостей типа XSS.
Что же делать, чтобы не повторить ошибки Moltbook
- Создавать чёткие промпты и спецификации с правилами безопасности, основанными на стандартах типа OWASP Top 10
- Проводить тщательные обзоры кода: диффы, юнит-тесты, качество — как в обычной разработке
- Автоматизировать безопасность через CI/CD с проверками с помощью GitGuardian, TruffleHog и других инструментов
Vir отмечает, что AI-кодинг может значительно ускорить создание решений и сделать технологию более доступной. Но цена может оказаться высокой. Только правильное проектирование промптов, проверки и автоматические барьеры помогут защитить проекты и сохранить доверие к AI.
Будущее за балансом скорости и безопасности — если разработчики научатся правильно интегрировать эти практики, мы сможем избежать крупномасштабных инцидентов и продолжить развивать AI без страшных сюрпризов.
