Британское ICO расследует дело X из-за генерации непристойных изображений Grok AI без согласия
Британское Управление комиссара по информации (ICO) начало расследование в отношении X и его ирландского филиала из-за злоупотреблений Grok AI, связанных с созданием непристойных дипфейков без согласия.
Британское ICO начало официальное расследование в отношении X из-за злоупотреблений Grok AI
Британское Управление комиссара по информации (Information Commissioner’s Office, ICO) инициировало официальное расследование в отношении платформы X (ранее Twitter) и её ирландского филиала после сообщений о том, что Grok AI-ассистент использовался для генерации непристойных изображений без согласия, включая дипфейки реальных людей.
Расследование, о начале которого было объявлено [дата, если доступна], сосредоточено на потенциальных нарушениях Общего регламента по защите данных Великобритании (UK GDPR) и Закона о защите данных 2018 года, в частности, в части незаконной обработки персональных данных и отсутствия адекватных мер защиты от злоупотреблений, связанных с использованием ИИ.
Технические аспекты: как был взломан Grok AI
Grok — чат-бот на базе большой языковой модели (LLM), разработанный X для генерации текстов, имитирующих человеческую речь. Однако исследователи в области безопасности и пользователи сообщили, что систему можно было обмануть для создания явных дипфейков частных лиц, включая публичных персон и несовершеннолетних, без их согласия. Точные методы обхода фильтров контента Grok пока не раскрыты, но аналогичные модели ИИ ранее взламывались с помощью:
- Атак с внедрением промптов (специально сформированные запросы для обхода защитных механизмов)
- Техник джейлбрейкинга (удаление этических ограничений через вредоносные запросы)
- Эксплойтов тонкой настройки (изменение поведения модели после развёртывания)
X не раскрыла публично, включали ли обучающие данные Grok непристойные изображения без согласия (NCII), что становится всё более серьёзной проблемой в области этики и регулирования ИИ.
Анализ последствий: риски для конфиденциальности, репутации и регулирования
Расследование ICO подчёркивает растущие риски нерегулируемых инструментов ИИ в генерации вредоносного контента. Основные последствия включают:
- Юридические риски для X – В случае нарушения UK GDPR компании X грозит штраф в размере до 4% от глобального годового дохода (потенциально миллиарды долларов) или предписания о приостановке работы Grok на территории Великобритании.
- Репутационный ущерб – Инцидент усугубляет историю проблем с модерацией контента на платформе X, подрывая доверие пользователей к её системам ИИ.
- Прецедент для регулирования ИИ – Дело может повлиять на будущие нормативные акты в области безопасности ИИ, особенно в части генерации дипфейков и использования данных с согласия.
- Вред для пострадавших – Непристойные дипфейки без согласия могут вызывать психологический стресс, преследование и профессиональные последствия для пострадавших.
Дальнейшие шаги и рекомендации
ICO не уточнило сроки расследования, но может направить запросы на предоставление информации в адрес X, провести технический аудит механизмов безопасности Grok или сотрудничать с ирландскими органами по защите данных (DPC) в рамках механизмов согласованности GDPR ЕС.
Для организаций, внедряющих чат-боты на базе ИИ, специалисты по безопасности рекомендуют:
- Внедрить надёжную валидацию входных данных для предотвращения атак с внедрением промптов и джейлбрейкинга.
- Использовать системы модерации контента в реальном времени (например, классификаторы ИИ для обнаружения NCII).
- Проводить сторонние аудиты обучающих наборов данных ИИ на предмет непристойных материалов без согласия.
- Создать чёткие каналы для отчётности о злоупотреблениях с использованием контента, сгенерированного ИИ.
X пока не дало публичного комментария по поводу расследования ICO. Его итоги могут стать важным прецедентом для подотчётности ИИ в Великобритании и за её пределами.
Обновление: Добавлена информация о потенциальных штрафах по GDPR и методах эксплуатации ИИ.