Уязвимые ключи Google API открывают доступ к данным Gemini AI без авторизации
Исследователи обнаружили критический риск: ключи Google API, ранее считавшиеся безопасными, теперь позволяют злоумышленникам получать доступ к приватным данным Gemini AI.
Ключи Google API создают новую угрозу безопасности данных Gemini AI
Исследователи в области кибербезопасности выявили критический риск, связанный с ключами Google API, которые ранее считались низкорисковыми. Эти ключи, встроенные в клиентский код для таких сервисов, как Google Maps, теперь могут быть использованы для аутентификации в Google Gemini AI и доступа к приватным данным пользователей. Уязвимость демонстрирует эволюцию поверхности атак в облачных сервисах искусственного интеллекта.
Основные детали угрозы
- Кто: Ключи Google API, исторически применявшиеся для нечувствительных сервисов (например, Maps, Translate), теперь перепрофилируются злоумышленниками для доступа к данным Gemini AI.
- Что: Атакующие могут использовать утекшие API-ключи для аутентификации в Gemini AI и потенциального извлечения историй чатов, пользовательских запросов и других конфиденциальных взаимодействий.
- Когда: Проблема была раскрыта в середине 2024 года, хотя точные сроки эксплуатации остаются неясными.
- Почему: Расширенные разрешения для API-ключей, изначально предназначенные для низкорисковых сервисов, теперь непреднамеренно предоставляют доступ к высокорисковым функциям искусственного интеллекта.
Технический анализ
Ключи Google API, встроенные в клиентский код (например, JavaScript, мобильные приложения), долгое время считались низкорисковыми для таких сервисов, как Maps, где они обеспечивали доступ только к публичным данным. Однако интеграция этих ключей с Gemini AI создала новый вектор атаки:
- Обход аутентификации: Злоумышленники могут использовать утекшие ключи для аутентификации в Gemini AI без дополнительной проверки.
- Утечка данных: После аутентификации атакующие могут получать пользовательский контент, включая логи чатов и кастомные запросы.
- Отсутствие CVE: На момент публикации CVE ID не был присвоен, так как это риск уровня архитектуры, а не традиционная уязвимость.
Анализ последствий
Последствия этой проблемы значительны для организаций и разработчиков:
- Расширение поверхности атак: Даже приложения, напрямую не использующие Gemini AI, могут оказаться под угрозой, если в них экспонируются ключи Google API.
- Риски конфиденциальности: Чувствительные взаимодействия с ИИ, включая проприетарные или конфиденциальные запросы, могут быть скомпрометированы.
- Проблемы соответствия: Несанкционированный доступ к данным ИИ может нарушать требования GDPR, CCPA и других нормативных актов по защите данных.
Меры по снижению рисков и лучшие практики
Командам безопасности и разработчикам следует незамедлительно предпринять шаги для снижения рисков:
-
Ограничение прав API-ключей
- Используйте ограничения ключей API в Google Cloud, чтобы ограничить доступ только конкретными сервисами (например, только Maps).
- По возможности избегайте встраивания ключей в клиентский код; вместо этого применяйте серверную аутентификацию.
-
Мониторинг несанкционированного использования
- Включите мониторинг ключей API в Google Cloud для обнаружения необычной активности.
- Настройте оповещения о неожиданных попытках аутентификации.
-
Ротация утекших ключей
- Если ключи были публично экспонированы, немедленно сгенерируйте их заново и обновите все зависимости.
-
Внедрение принципов нулевого доверия (Zero Trust)
- Относитесь к API-ключам как к чувствительным учетным данным, даже для низкорисковых сервисов.
- По возможности используйте краткосрочные токены для снижения долгосрочных рисков.
Заключение
Этот инцидент подчеркивает необходимость постоянной переоценки безопасности API, особенно в условиях расширения функциональности облачных провайдеров. Организациям следует активно проводить аудит использования API-ключей и применять принцип минимальных привилегий для предотвращения несанкционированного доступа к данным.
Дополнительные сведения можно найти в оригинальном отчете BleepingComputer.