EilmeldungNiedrig

EU untersucht X wegen Risiken durch KI-generierte explizite Inhalte in Grok

2 Min. LesezeitQuelle: BleepingComputer

Die Europäische Kommission prüft, ob X (ehemals Twitter) vor der Einführung seines KI-Tools Grok ausreichende Risikobewertungen durchgeführt hat. Fokus liegt auf DSA-Compliance.

EU untersucht Risikobewertung von X beim Einsatz des KI-Tools Grok

Die Europäische Kommission hat eine formelle Untersuchung gegen X (ehemals Twitter) eingeleitet, um zu prüfen, ob die Plattform vor der Einführung ihres KI-Tools Grok angemessene Risikobewertungen durchgeführt hat. Die Untersuchung folgt Berichten, wonach Grok zur Erstellung sexuell expliziter Bilder genutzt wurde, was Bedenken hinsichtlich der Einhaltung des Digital Services Act (DSA) aufwirft.

Technischer und regulatorischer Kontext

Im Mittelpunkt der Untersuchung steht Artikel 34 des DSA, der sehr große Online-Plattformen (VLOPs) verpflichtet, vor der Einführung neuer Funktionen oder Dienste Risikobewertungen durchzuführen. Grok, der KI-Chatbot von X, wurde Ende 2023 in die Plattform integriert. Seine Fähigkeit, explizite Inhalte ohne ausreichende Schutzmaßnahmen zu generieren, hat jedoch regulatorische Aufmerksamkeit erregt.

Die Kommission hat bisher keine spezifischen technischen Mängel offengelegt. Sicherheitsforscher haben jedoch bereits zuvor auf Prompt-Injection-Schwachstellen und fehlende Inhaltsmoderationskontrollen in KI-Modellen wie Grok hingewiesen. Diese Probleme könnten es böswilligen Akteuren ermöglichen, ethische Schutzmechanismen zu umgehen und schädliche oder illegale Inhalte zu erstellen.

Auswirkungen und regulatorische Implikationen

Die Untersuchung unterstreicht die proaktive Haltung der EU in Bezug auf KI-Governance, insbesondere für Plattformen mit über 45 Millionen monatlich aktiven Nutzern. Sollte X als nicht konform befunden werden, drohen dem Unternehmen Geldstrafen von bis zu 6 % seines globalen Umsatzes gemäß DSA sowie verpflichtende Korrekturmaßnahmen.

Für Fachleute aus den Bereichen Cybersicherheit und KI-Ethik verdeutlicht dieser Fall die Herausforderungen beim Einsatz generativer KI im großen Maßstab ohne robuste Risikominderungsrahmen. Das Ergebnis könnte einen Präzedenzfall dafür schaffen, wie Regulierungsbehörden KI-gestützte Inhaltsrisiken in sozialen Medienumgebungen behandeln.

Nächste Schritte für X und Branchenbeobachter

X hat bisher nicht öffentlich auf die Untersuchung reagiert. Die Plattform könnte jedoch folgende Maßnahmen ergreifen müssen:

  • Verbesserung der KI-Moderationskontrollen, um die Generierung expliziter Inhalte zu verhindern.
  • Durchführung eines Drittanbieter-Audits der Risikobewertungsprozesse von Grok.
  • Implementierung von Echtzeitüberwachung für Missbrauch durch Prompts.

Sicherheitsteams sollten diesen Fall als Benchmark für KI-Compliance unter dem DSA beobachten, insbesondere für Plattformen, die generative Modelle in Hochrisikobereichen einsetzen.

Teilen

TwitterLinkedIn