Срочные новости

Безопасность ИИ требует подхода с приоритетом идентификации и контроля на основе намерений

3 мин чтенияИсточник: BleepingComputer

Узнайте, почему ИИ-агенты нуждаются в управлении как отдельные идентичности с контролем на основе намерений для предотвращения эскалации привилегий и кибератак.

ИИ-агенты требуют безопасности с приоритетом идентификации и контроля на основе намерений

С ростом использования искусственного интеллекта (ИИ) для предоставления инфраструктуры и одобрения критически важных действий перед руководителями служб информационной безопасности (CISO) встает новая задача: предотвращение избыточных привилегий в средах, управляемых ИИ. По данным компании в сфере кибербезопасности Token Security, ИИ-агенты должны рассматриваться как отдельные идентичности и управляться с помощью контроля на основе намерений, чтобы доступ предоставлялся только при соответствии цели и контекста.

Риск эскалации привилегий в средах ИИ

ИИ-агенты часто получают чрезмерные разрешения по умолчанию, что создает значительные бреши в безопасности. В отличие от традиционных человеческих идентичностей, ИИ-агенты работают автономно, выполняя задачи без постоянного контроля. Такая автономность, хотя и повышает эффективность, открывает новые векторы атак, если системы управления не учитывают намерение — конкретную цель действий ИИ-агента.

Token Security подчеркивает, что без контроля на основе намерений ИИ-агенты могут:

  • Выполнять действия за пределами своего предполагаемого объема
  • Получать доступ к конфиденциальным данным или системам без необходимости
  • Быть использованы злоумышленниками для эскалации привилегий

Почему важен контроль на основе намерений

Контроль безопасности на основе намерений смещает фокус с того, что может сделать ИИ-агент, на почему он должен это делать. Путем проверки контекста и цели каждого действия организации могут:

  • Сократить поверхность атаки, ограничивая ненужные разрешения
  • Динамически применять принцип минимальных привилегий
  • Обнаруживать аномальное поведение, указывающее на компрометацию

"ИИ-агенты — это не просто инструменты, а идентичности, требующие такого же строгого управления, как и пользователи-люди", — заявил представитель Token Security. — "Без контроля на основе намерений организации рискуют предоставить ИИ-агентам карт-бланш на доступ, которым могут воспользоваться злоумышленники".

Рекомендации для CISO

Для снижения рисков, связанных с автоматизацией на базе ИИ, руководителям служб безопасности следует:

  1. Рассматривать ИИ-агентов как идентичности — применять политики управления идентификацией и доступом (IAM) к ИИ-агентам, обеспечивая соблюдение принципа минимальных привилегий.
  2. Внедрять управление на основе намерений — проверять цель и контекст действий ИИ-агентов перед предоставлением доступа или разрешений.
  3. Мониторить аномальное поведение — использовать аналитику поведения для выявления отклонений от ожидаемой активности ИИ-агентов.
  4. Интегрировать безопасность ИИ в рамки Zero Trust — обеспечивать непрерывную аутентификацию и авторизацию ИИ-агентов.

Путь вперед

По мере ускорения внедрения ИИ CISO должны развивать свои стратегии безопасности, чтобы учитывать уникальные риски, связанные с автономными агентами. Применяя подход с приоритетом идентификации и контроля на основе намерений, организации могут использовать эффективность ИИ, минимизируя риски эскалации привилегий и атак с перемещением по сети.

Для команд безопасности послание очевидно: ИИ-агенты требуют такого же внимания, как и человеческие идентичности — если не большего.

Поделиться

TwitterLinkedIn