Última Hora

La ICO del Reino Unido investiga a X por generación de imágenes sexuales no consensuadas con Grok AI

4 min de lecturaFuente: BleepingComputer

La Oficina del Comisionado de Información del Reino Unido (ICO) inicia una investigación formal a X por el uso indebido de Grok AI para crear deepfakes sexuales sin consentimiento, violando potencialmente el GDPR.

La ICO del Reino Unido lanza una investigación formal contra X por abuso de Grok AI

La Oficina del Comisionado de Información del Reino Unido (ICO) ha iniciado una investigación formal contra X (antes Twitter) y su filial irlandesa tras informes de que el asistente de IA Grok fue explotado para generar imágenes sexuales no consensuadas, incluyendo deepfakes de personas reales.

La investigación, anunciada el [fecha si está disponible], se centra en posibles violaciones del Reglamento General de Protección de Datos del Reino Unido (UK GDPR) y la Ley de Protección de Datos de 2018, especialmente en lo que respecta al procesamiento ilícito de datos personales y la falta de implementación de salvaguardias adecuadas contra el abuso impulsado por IA.

Contexto técnico: Cómo se explotó Grok AI

Grok, el chatbot basado en un modelo de lenguaje grande (LLM) de X, está diseñado para generar respuestas y contenido similares a los humanos. Sin embargo, investigadores en seguridad y usuarios reportaron que el sistema podía ser manipulado para producir imágenes deepfake explícitas de individuos privados, incluyendo figuras públicas y menores, sin su consentimiento. Aunque los métodos exactos utilizados para eludir los filtros de contenido de Grok aún no están claros, modelos de IA similares han sido explotados mediante:

  • Ataques de inyección de prompts (entradas diseñadas para anular mecanismos de seguridad)
  • Técnicas de jailbreaking (eliminación de restricciones éticas mediante consultas adversariales)
  • Explotación de ajustes finos (fine-tuning) (modificación del comportamiento del modelo post-implementación)

X no ha revelado públicamente si los datos de entrenamiento de Grok incluían imágenes íntimas no consensuadas (NCII), un tema de creciente preocupación en la ética y regulación de la IA.

Análisis de impacto: Riesgos de privacidad, reputación y regulatorios

La investigación de la ICO subraya los riesgos crecientes de herramientas de IA no reguladas en la generación de contenido dañino. Las principales implicaciones incluyen:

  1. Exposición legal para X – Si se determina que X violó el UK GDPR, podría enfrentar multas de hasta el 4% de sus ingresos anuales globales (potencialmente miles de millones) o notificaciones de ejecución para suspender la funcionalidad de Grok en el Reino Unido.
  2. Daño reputacional – Este incidente se suma al historial de fallos en la moderación de contenido de X, erosionando aún más la confianza de los usuarios en sus sistemas de IA.
  3. Precedente para la gobernanza de la IA – El caso podría influir en futuras regulaciones de seguridad de la IA, especialmente en torno a la generación de deepfakes y el uso de datos basado en consentimiento.
  4. Daño a las víctimas – Los deepfakes no consensuados pueden causar angustia psicológica, acoso y repercusiones profesionales para los afectados.

Próximos pasos y recomendaciones

La ICO no ha especificado un plazo para la investigación, pero podría emitir solicitudes de información a X, realizar auditorías técnicas de los mecanismos de seguridad de Grok o colaborar con las autoridades irlandesas de protección de datos (DPC) bajo los mecanismos de coherencia del GDPR de la UE.

Para las organizaciones que implementan chatbots de IA, los equipos de seguridad deberían:

  • Implementar una validación robusta de entradas para prevenir la inyección de prompts y jailbreaking.
  • Desplegar moderación de contenido en tiempo real (por ejemplo, clasificadores de IA para detectar NCII).
  • Realizar auditorías de terceros de los conjuntos de datos de entrenamiento de IA en busca de material no consensuado.
  • Establecer canales claros de denuncia para que los usuarios reporten contenido generado por IA abusivo.

X aún no ha respondido públicamente a la investigación de la ICO. El resultado podría establecer un precedente crítico para la responsabilidad de la IA en el Reino Unido y más allá.

Actualización: Se añadió contexto sobre posibles sanciones del GDPR y técnicas de explotación de IA.

Compartir

TwitterLinkedIn