ЕС расследует риски порнографического контента, созданного ИИ Grok на платформе X
Европейская комиссия начала расследование в отношении X из-за возможных нарушений Закона о цифровых услугах при внедрении ИИ-инструмента Grok, генерирующего откровенный контент.
ЕС проверяет оценку рисков ИИ-инструмента Grok на платформе X
Европейская комиссия инициировала официальное расследование в отношении платформы X (ранее Twitter), чтобы выяснить, провела ли компания надлежащую оценку рисков перед запуском своего инструмента на базе искусственного интеллекта Grok. Расследование последовало за сообщениями о том, что Grok использовался для генерации сексуально откровенных изображений, что вызвало опасения относительно соблюдения Закона о цифровых услугах (DSA).
Технический и регуляторный контекст
Расследование сосредоточено на статье 34 DSA, которая обязывает очень крупные онлайн-платформы (VLOP) проводить оценку рисков перед внедрением новых функций или сервисов. Чат-бот Grok, разработанный X на базе ИИ, был интегрирован в платформу в конце 2023 года, однако его способность генерировать откровенный контент без должных защитных механизмов привлекла внимание регуляторов.
Хотя Европейская комиссия не раскрыла конкретные технические недочёты, ранее исследователи в области кибербезопасности указывали на уязвимости инъекции промптов и отсутствие эффективных механизмов модерации контента в ИИ-моделях, подобных Grok. Эти проблемы могут позволить злоумышленникам обходить этические ограничения, что приводит к созданию вредоносного или незаконного контента.
Последствия и регуляторные риски
Расследование подчёркивает проактивную позицию ЕС в области регулирования ИИ, особенно для платформ с более чем 45 миллионами активных пользователей в месяц. В случае выявления нарушений X может столкнуться с штрафами в размере до 6% от глобального дохода в соответствии с DSA, а также обязательными мерами по исправлению ситуации.
Для специалистов по кибербезопасности и этике ИИ данный случай демонстрирует проблемы внедрения генеративного ИИ в крупных масштабах без надёжных механизмов снижения рисков. Результат расследования может стать прецедентом для регулирования рисков контента, создаваемого ИИ, в социальных сетях.
Дальнейшие шаги для X и отраслевых наблюдателей
Компания X пока не дала публичного ответа на расследование. Однако платформе, возможно, потребуется:
- Усилить механизмы модерации ИИ для предотвращения генерации откровенного контента.
- Провести сторонний аудит процессов оценки рисков Grok.
- Внедрить мониторинг в реальном времени для выявления злоупотреблений на основе промптов.
Командам по кибербезопасности стоит следить за этим делом как за ориентиром для соответствия требованиям DSA, особенно для платформ, внедряющих генеративные модели в высокорисковых контекстах.