KI-Workflow-Sicherheit überholt Modellschutz als größtes Risiko für Unternehmen
KI-Workflows werden zum primären Angriffsziel – während Unternehmen Modelle schützen, nutzen Cyberkriminelle Schwachstellen in Prozessen und Integrationen.
KI-Workflow-Sicherheit wird zur kritischen Schwachstelle in der Unternehmensadoption
Während KI-gestützte Copiloten und Assistenten immer tiefer in den täglichen Geschäftsbetrieb integriert werden, konzentrieren sich Sicherheitsteams weiterhin auf den Schutz der zugrundeliegenden Modelle – und übersehen dabei eine dringendere Bedrohung. Aktuelle Vorfälle zeigen, dass die Workflow-Sicherheit, also die Prozesse und Integrationen rund um KI-Tools, zum primären Angriffvektor für Cyberkriminelle geworden ist.
Bösartige Chrome-Erweiterungen setzen über 900.000 Nutzer Datenklau aus
Ein deutlicher Beleg für diesen Wandel sind zwei betrügerische Chrome-Erweiterungen, die sich als KI-Produktivitätstools tarnten und sensible Daten aus ChatGPT- und DeepSeek-Konversationen abzogen. Die Erweiterungen, die über 900.000 Nutzer erreichten, nutzten schwache Workflow-Sicherheitskontrollen aus, um Chat-Protokolle, Anmeldedaten und proprietäre Unternehmensdaten abzugreifen. Der Angriff unterstreicht einen wachsenden Trend: Angreifer zielen auf die Mensch-KI-Interaktionsebene ab, statt auf die Modelle selbst.
Technische Analyse: Wie Workflow-Exploits traditionelle Abwehrmechanismen umgehen
Im Gegensatz zu modellzentrierten Angriffen – wie Prompt-Injection oder Data Poisoning – nutzen Workflow-Exploits folgende Schwachstellen:
- Browser-Erweiterungs-APIs: Bösartige Erweiterungen missbrauchen Berechtigungen, um Echtzeit-Datenströme zwischen Nutzern und KI-Plattformen abzufangen.
- Fehlende kontextbezogene Zugriffskontrollen: KI-Assistenten erben oft weitreichende Berechtigungen von Host-Anwendungen (z. B. E-Mail-Clients, IDEs), was laterale Bewegungen ermöglicht.
- Schatten-Integrationen: Nicht genehmigte KI-Tools, die von Mitarbeitern eingesetzt werden, umgehen Unternehmenssicherheitsrichtlinien und setzen Workflows ungeprüften Drittanbieter-Risiken aus.
Der Vorfall mit den Chrome-Erweiterungen offenbart eine kritische Lücke: Sicherheitsframeworks für KI-Modelle (z. B. OWASP Top 10 für LLMs) adressieren keine Workflow-Ebene-Bedrohungen, wie:
- Session Hijacking über kompromittierte Browsersitzungen.
- Datenexfiltration durch scheinbar legitime API-Aufrufe.
- Lieferkettenangriffe auf KI-Plugin-Ökosysteme.
Auswirkungsanalyse: Warum Workflow-Sicherheit jetzt Modellschutz übertrifft
Für Sicherheitsexperten erfordert der Fokus auf Workflow-Sicherheit dringendes Handeln aus folgenden Gründen:
- Ausmaß der Exposition: Workflow-Angriffe betreffen alle Nutzer eines KI-Tools, während Modellangriffe oft gezielte Ausnutzung erfordern.
- Datenempfindlichkeit: KI-Assistenten verarbeiten hochvertrauliche Daten (z. B. Code, Rechtsdokumente, Finanzberichte), was sie zu lukrativen Zielen macht.
- Erkennungsherausforderungen: Workflow-Exploits mischen sich in legitimen Datenverkehr ein und umgehen traditionelle Anomalieerkennungssysteme.
Empfehlungen zur Absicherung von KI-Workflows
Um diese Risiken zu mindern, sollten Unternehmen:
- Granulare Zugriffskontrollen für KI-Integrationen implementieren und Berechtigungen nach dem Prinzip der geringsten Privilegien beschränken.
- Erweiterungsökosysteme überwachen, z. B. mit Tools wie Google’s Extension Developer Verification, um nicht vertrauenswürdige KI-Plugins zu blockieren.
- Echtzeit-Datenverlustprävention (DLP) einsetzen, um KI-generierte Inhalte auf sensible Datenlecks zu prüfen.
- Zero-Trust-Architekturen für KI-Workflows einführen und jede Interaktion als potenziell kompromittiert behandeln.
- Red-Team-Übungen durchführen, um die Widerstandsfähigkeit von Workflows gegen Session Hijacking und API-Missbrauch zu testen.
Der Weg nach vorn
Mit der Beschleunigung der KI-Adoption müssen Sicherheitsteams ihren Fokus über die Härtung von Modellen hinaus erweitern. Die Workflow-Sicherheit – einschließlich Browser-Integrationen, API-Gateways und Nutzerzugriffsebenen – stellt heute die kritischste Front im KI-Risikomanagement dar. Der Vorfall mit den Chrome-Erweiterungen dient als mahnendes Beispiel: Die schwächste Stelle in der KI-Sicherheit ist nicht das Modell – es sind die Workflows, die es speisen.