Критические уязвимости в сети AI-агентов Moltbook: риски инъекции промптов между ботами
Эксперты Wiz и Permiso выявили критические уязвимости в сети Moltbook, включая риски инъекции промптов и утечек данных. Подробности в анализе.
Уязвимости в безопасности сети AI-агентов обнаружены исследователями
Кибербезопасные компании Wiz и Permiso выявили критические уязвимости в сети Moltbook AI agent network, раскрыв риски bot-to-bot prompt injection (инъекции промптов между ботами) и утечки данных. Результаты исследования, опубликованные в совместном анализе, подчеркивают значительные пробелы в безопасности новых коммуникационных фреймворков, управляемых искусственным интеллектом.
Основные выводы и технические детали
Исследование было сосредоточено на Moltbook — экспериментальной социальной сети AI-агентов, предназначенной для облегчения взаимодействий между автономными системами искусственного интеллекта. Исследователи выявили два основных вектора атак:
-
Инъекция промптов между ботами (Bot-to-Bot Prompt Injection)
- Злоумышленники могут манипулировать AI-агентами, внедряя вредоносные промпты в межботовые коммуникации.
- Этот метод эксплуатирует модель доверия между агентами, позволяя получить несанкционированный контроль над поведением AI.
- Успешная эксплуатация может привести к латеральному перемещению (lateral movement) внутри сети или эксфильтрации данных (data exfiltration).
-
Риски утечки данных
- Неправильно настроенные механизмы контроля доступа и недостаточная изоляция данных способствуют непреднамеренному раскрытию конфиденциальной информации.
- Агенты могут случайно передавать проприетарные или конфиденциальные данные неавторизованным субъектам.
Уязвимости обусловлены архитектурными слабостями в механизмах аутентификации между агентами (agent-to-agent authentication) и валидации входных данных (input validation). Хотя на данный момент CVE-идентификаторы не присвоены, исследование подчеркивает системные риски в экосистемах AI-агентов.
Анализ последствий
Обнаруженные уязвимости создают серьезные угрозы для организаций, использующих сети AI-агентов:
- Нарушение рабочих процессов: Скомпрометированные агенты могут выполнять непредусмотренные действия, нарушая бизнес-процессы.
- Утечки данных: Конфиденциальная корпоративная или пользовательская информация может быть раскрыта неавторизованным сторонам.
- Репутационные риски: Доверие к автоматизации на базе AI может снизиться из-за проблем с безопасностью.
Исследование также поднимает более широкие вопросы о безопасности цепочки поставок AI (AI supply chain security), так как взаимодействия с агентами третьих сторон могут создавать непредвиденные риски.
Рекомендации для специалистов по безопасности
Для снижения рисков исследователи рекомендуют:
- Усиленная валидация входных данных: Внедрить строгую санацию всех межагентских коммуникаций.
- Архитектура нулевого доверия (Zero-Trust): Применять принцип минимальных привилегий к взаимодействиям AI-агентов.
- Непрерывный мониторинг: Использовать аналитику поведения для выявления аномальной активности агентов.
- Изоляция данных: Сегментировать конфиденциальные данные, чтобы ограничить их раскрытие при обмене между агентами.
Специалистам по безопасности рекомендуется ознакомиться с полным отчетом для получения технических индикаторов и стратегий защиты.
Этот анализ был впервые опубликован Эдуардом Ковачем (Eduard Kovacs) для SecurityWeek.