Срочные новостиНизкий

ЕС расследует риски порнографического контента, созданного ИИ Grok на платформе X

2 мин чтенияИсточник: BleepingComputer

Европейская комиссия начала расследование в отношении X из-за возможных нарушений Закона о цифровых услугах при внедрении ИИ-инструмента Grok, генерирующего откровенный контент.

ЕС проверяет оценку рисков ИИ-инструмента Grok на платформе X

Европейская комиссия инициировала официальное расследование в отношении платформы X (ранее Twitter), чтобы выяснить, провела ли компания надлежащую оценку рисков перед запуском своего инструмента на базе искусственного интеллекта Grok. Расследование последовало за сообщениями о том, что Grok использовался для генерации сексуально откровенных изображений, что вызвало опасения относительно соблюдения Закона о цифровых услугах (DSA).

Технический и регуляторный контекст

Расследование сосредоточено на статье 34 DSA, которая обязывает очень крупные онлайн-платформы (VLOP) проводить оценку рисков перед внедрением новых функций или сервисов. Чат-бот Grok, разработанный X на базе ИИ, был интегрирован в платформу в конце 2023 года, однако его способность генерировать откровенный контент без должных защитных механизмов привлекла внимание регуляторов.

Хотя Европейская комиссия не раскрыла конкретные технические недочёты, ранее исследователи в области кибербезопасности указывали на уязвимости инъекции промптов и отсутствие эффективных механизмов модерации контента в ИИ-моделях, подобных Grok. Эти проблемы могут позволить злоумышленникам обходить этические ограничения, что приводит к созданию вредоносного или незаконного контента.

Последствия и регуляторные риски

Расследование подчёркивает проактивную позицию ЕС в области регулирования ИИ, особенно для платформ с более чем 45 миллионами активных пользователей в месяц. В случае выявления нарушений X может столкнуться с штрафами в размере до 6% от глобального дохода в соответствии с DSA, а также обязательными мерами по исправлению ситуации.

Для специалистов по кибербезопасности и этике ИИ данный случай демонстрирует проблемы внедрения генеративного ИИ в крупных масштабах без надёжных механизмов снижения рисков. Результат расследования может стать прецедентом для регулирования рисков контента, создаваемого ИИ, в социальных сетях.

Дальнейшие шаги для X и отраслевых наблюдателей

Компания X пока не дала публичного ответа на расследование. Однако платформе, возможно, потребуется:

  • Усилить механизмы модерации ИИ для предотвращения генерации откровенного контента.
  • Провести сторонний аудит процессов оценки рисков Grok.
  • Внедрить мониторинг в реальном времени для выявления злоупотреблений на основе промптов.

Командам по кибербезопасности стоит следить за этим делом как за ориентиром для соответствия требованиям DSA, особенно для платформ, внедряющих генеративные модели в высокорисковых контекстах.

Поделиться

TwitterLinkedIn