Última HoraBaixo

UE Investiga Riscos de Conteúdo Explícito Gerado por IA no Grok do X

2 min de leituraFonte: BleepingComputer

Comissão Europeia analisa se o X cumpriu avaliações de risco do DSA antes de lançar a IA Grok, após denúncias de imagens explícitas geradas pelo chatbot.

UE Investiga Avaliação de Riscos do X na Implementação da Ferramenta de IA Grok

A Comissão Europeia iniciou uma investigação formal contra o X (antigo Twitter) para determinar se a plataforma avaliou adequadamente os riscos antes de implementar sua ferramenta de inteligência artificial Grok. A apuração ocorre após relatos de que o Grok foi utilizado para gerar imagens sexualmente explícitas, levantando preocupações sobre o cumprimento da Lei de Serviços Digitais (DSA, na sigla em inglês).

Contexto Técnico e Regulatório

A investigação concentra-se no Artigo 34 do DSA, que exige que plataformas online muito grandes (VLOPs) realizem avaliações de risco antes de introduzir novos recursos ou serviços. O Grok, chatbot de IA do X, foi integrado à plataforma no final de 2023, mas sua capacidade de gerar conteúdo explícito sem salvaguardas acionou o escrutínio regulatório.

Embora a Comissão não tenha divulgado falhas técnicas específicas, pesquisadores de segurança já haviam destacado vulnerabilidades de injeção de prompts e falta de controles de moderação de conteúdo em modelos de IA como o Grok. Esses problemas podem permitir que agentes mal-intencionados burlem barreiras éticas, resultando na criação de conteúdo prejudicial ou ilegal.

Impacto e Implicações Regulatórias

A investigação reforça a postura proativa da UE em relação à governança de IA, especialmente para plataformas com mais de 45 milhões de usuários ativos mensais. Caso seja considerada não conforme, o X poderá enfrentar multas de até 6% de sua receita global sob o DSA, além de medidas corretivas obrigatórias.

Para profissionais de cibersegurança e ética em IA, este caso evidencia os desafios de implementar IA generativa em larga escala sem frameworks robustos de mitigação de riscos. O desfecho pode estabelecer um precedente sobre como reguladores abordarão riscos de conteúdo impulsionados por IA em ambientes de redes sociais.

Próximos Passos para o X e Observadores do Setor

O X ainda não se pronunciou publicamente sobre a investigação. No entanto, a plataforma pode precisar:

  • Reforçar controles de moderação de IA para evitar a geração de conteúdo explícito.
  • Realizar uma auditoria de terceiros dos processos de avaliação de risco do Grok.
  • Implementar monitoramento em tempo real para abuso baseado em prompts.

Equipes de segurança devem acompanhar este caso como um parâmetro para conformidade de IA sob o DSA, especialmente para plataformas que implementam modelos generativos em contextos de alto risco.

Compartilhar

TwitterLinkedIn