Срочные новости

Критические уязвимости в сети AI-агентов Moltbook: риски инъекции промптов между ботами

2 мин чтенияИсточник: SecurityWeek

Эксперты Wiz и Permiso выявили критические уязвимости в сети Moltbook, включая риски инъекции промптов и утечек данных. Подробности в анализе.

Уязвимости в безопасности сети AI-агентов обнаружены исследователями

Кибербезопасные компании Wiz и Permiso выявили критические уязвимости в сети Moltbook AI agent network, раскрыв риски bot-to-bot prompt injection (инъекции промптов между ботами) и утечки данных. Результаты исследования, опубликованные в совместном анализе, подчеркивают значительные пробелы в безопасности новых коммуникационных фреймворков, управляемых искусственным интеллектом.

Основные выводы и технические детали

Исследование было сосредоточено на Moltbook — экспериментальной социальной сети AI-агентов, предназначенной для облегчения взаимодействий между автономными системами искусственного интеллекта. Исследователи выявили два основных вектора атак:

  1. Инъекция промптов между ботами (Bot-to-Bot Prompt Injection)

    • Злоумышленники могут манипулировать AI-агентами, внедряя вредоносные промпты в межботовые коммуникации.
    • Этот метод эксплуатирует модель доверия между агентами, позволяя получить несанкционированный контроль над поведением AI.
    • Успешная эксплуатация может привести к латеральному перемещению (lateral movement) внутри сети или эксфильтрации данных (data exfiltration).
  2. Риски утечки данных

    • Неправильно настроенные механизмы контроля доступа и недостаточная изоляция данных способствуют непреднамеренному раскрытию конфиденциальной информации.
    • Агенты могут случайно передавать проприетарные или конфиденциальные данные неавторизованным субъектам.

Уязвимости обусловлены архитектурными слабостями в механизмах аутентификации между агентами (agent-to-agent authentication) и валидации входных данных (input validation). Хотя на данный момент CVE-идентификаторы не присвоены, исследование подчеркивает системные риски в экосистемах AI-агентов.

Анализ последствий

Обнаруженные уязвимости создают серьезные угрозы для организаций, использующих сети AI-агентов:

  • Нарушение рабочих процессов: Скомпрометированные агенты могут выполнять непредусмотренные действия, нарушая бизнес-процессы.
  • Утечки данных: Конфиденциальная корпоративная или пользовательская информация может быть раскрыта неавторизованным сторонам.
  • Репутационные риски: Доверие к автоматизации на базе AI может снизиться из-за проблем с безопасностью.

Исследование также поднимает более широкие вопросы о безопасности цепочки поставок AI (AI supply chain security), так как взаимодействия с агентами третьих сторон могут создавать непредвиденные риски.

Рекомендации для специалистов по безопасности

Для снижения рисков исследователи рекомендуют:

  • Усиленная валидация входных данных: Внедрить строгую санацию всех межагентских коммуникаций.
  • Архитектура нулевого доверия (Zero-Trust): Применять принцип минимальных привилегий к взаимодействиям AI-агентов.
  • Непрерывный мониторинг: Использовать аналитику поведения для выявления аномальной активности агентов.
  • Изоляция данных: Сегментировать конфиденциальные данные, чтобы ограничить их раскрытие при обмене между агентами.

Специалистам по безопасности рекомендуется ознакомиться с полным отчетом для получения технических индикаторов и стратегий защиты.

Этот анализ был впервые опубликован Эдуардом Ковачем (Eduard Kovacs) для SecurityWeek.

Поделиться

TwitterLinkedIn