Última Hora

Autoridades Francesas Registran Oficinas de X por Abuso de Deepfakes con Grok AI en Investigación Penal

2 min de lecturaFuente: BleepingComputer

Francia investiga el uso de Grok AI de X para crear deepfakes sexuales no consensuados. Elon Musk citado a declarar. Riesgos legales y éticos en IA.

Fiscales Franceses Investigan a X por Abuso de Deepfakes con Grok AI

Las autoridades francesas realizaron un registro en las oficinas de X en París el martes como parte de una investigación penal sobre la herramienta de inteligencia artificial Grok AI de la plataforma, ampliamente utilizada para generar imágenes deepfake de contenido sexual explícito. Elon Musk, propietario de X, también ha sido citado a comparecer ante los investigadores.

La investigación sigue a múltiples denuncias sobre la creación y difusión de deepfakes sexuales explícitos sin consentimiento, especialmente dirigidos a figuras públicas. Los fiscales franceses están examinando si X incumplió la implementación de salvaguardas adecuadas para prevenir el mal uso de su tecnología de IA, lo que podría violar las leyes locales sobre contenido digital y acoso.

Contexto Técnico

Grok, el chatbot de IA de X, fue integrado en la plataforma a finales de 2023 y está disponible para suscriptores premium. Aunque fue diseñado para interacciones de propósito general, sus capacidades de generación de imágenes a partir de texto han sido explotadas para producir contenido explícito. Investigadores en ciberseguridad han señalado que los deepfakes generados por IA, incluidos aquellos creados mediante Grok, suelen eludir los filtros tradicionales de moderación de contenido debido a su naturaleza novedosa y en evolución.

Análisis de Impacto

Esta investigación destaca el creciente escrutinio regulatorio sobre las herramientas de IA y su potencial de abuso. Para los profesionales en ciberseguridad, este caso subraya los desafíos de equilibrar la innovación con responsabilidades éticas y legales. El mal uso de contenido generado por IA representa riesgos para la privacidad, reputación y bienestar mental de las personas, además de ejercer presión sobre los sistemas de moderación de plataformas.

Próximos Pasos

X aún no ha respondido públicamente al registro ni a la citación. El resultado de esta investigación podría sentar un precedente sobre cómo se regulan las herramientas de IA en Europa, particularmente bajo la Ley de Servicios Digitales (DSA) y la Ley de IA. Las organizaciones que utilizan tecnologías de IA deben monitorear estos desarrollos y garantizar el cumplimiento de los marcos legales emergentes para mitigar riesgos de acciones similares.

Actualización: Este artículo se actualizará si X emite un comunicado oficial.

Compartir

TwitterLinkedIn