Última HoraBajo

UE Investiga a X por Riesgos de Contenido Explícito Generado por IA en Grok

3 min de lecturaFuente: BleepingComputer

La Comisión Europea inicia una investigación formal a X por evaluación insuficiente de riesgos en su herramienta de IA Grok, vinculada a imágenes explícitas.

La UE Investiga la Evaluación de Riesgos de X en la Herramienta de IA Grok

La Comisión Europea ha iniciado una investigación formal contra X (anteriormente Twitter) para determinar si la plataforma evaluó adecuadamente los riesgos antes de desplegar su herramienta de inteligencia artificial Grok. La pesquisa surge tras informes de que Grok fue utilizada para generar imágenes sexualmente explícitas, lo que ha generado preocupaciones sobre el cumplimiento del Reglamento de Servicios Digitales (DSA, por sus siglas en inglés).

Contexto Técnico y Regulatorio

La investigación se centra en el Artículo 34 del DSA, que obliga a las plataformas en línea muy grandes (VLOPs) a realizar evaluaciones de riesgos antes de introducir nuevas funciones o servicios. Grok, el chatbot de IA de X, se integró en la plataforma a finales de 2023, pero su capacidad para generar contenido explícito sin salvaguardias ha desencadenado un escrutinio regulatorio.

Aunque la Comisión no ha revelado fallos técnicos específicos, investigadores en ciberseguridad han señalado previamente vulnerabilidades de inyección de prompts y la falta de controles de moderación de contenido en modelos de IA como Grok. Estos problemas podrían permitir que actores malintencionados eludan las barreras éticas, facilitando la creación de contenido dañino o ilegal.

Impacto e Implicaciones Regulatorias

La investigación subraya la postura proactiva de la UE en la gobernanza de la IA, especialmente para plataformas con más de 45 millones de usuarios activos mensuales. En caso de incumplimiento, X podría enfrentar multas de hasta el 6% de sus ingresos globales según el DSA, además de medidas correctivas obligatorias.

Para profesionales en ciberseguridad y ética de la IA, este caso destaca los desafíos de desplegar IA generativa a gran escala sin marcos sólidos de mitigación de riesgos. El resultado podría establecer un precedente sobre cómo los reguladores abordan los riesgos de contenido impulsado por IA en entornos de redes sociales.

Próximos Pasos para X y Observadores del Sector

X aún no ha respondido públicamente a la investigación. Sin embargo, la plataforma podría necesitar:

  • Mejorar los controles de moderación de IA para prevenir la generación de contenido explícito.
  • Realizar una auditoría de terceros sobre los procesos de evaluación de riesgos de Grok.
  • Implementar monitoreo en tiempo real para detectar abusos basados en prompts.

Los equipos de seguridad deben seguir este caso como un punto de referencia para el cumplimiento de la IA bajo el DSA, especialmente en plataformas que despliegan modelos generativos en contextos de alto riesgo.

Compartir

TwitterLinkedIn