EilmeldungNiedrig

OpenAI verbessert temporäre Chats in ChatGPT mit Personalisierungsspeicherung

2 Min. LesezeitQuelle: BleepingComputer

OpenAI testet ein Upgrade für den temporären Chat in ChatGPT: Mehr Personalisierung bei strikter Datentrennung und Privatsphäre – ideal für sichere, sensible Gespräche.

OpenAI testet verbesserte Funktion für temporäre Chats in ChatGPT

OpenAI arbeitet aktuell an einem bedeutenden Upgrade für die Funktion „Temporärer Chat“ in ChatGPT, das Nutzerprivatsphäre und Funktionalität besser in Einklang bringen soll. Die KI-Forschungsorganisation kündigte an, dass Nutzer:innen künftig Personalisierungseinstellungen in temporären Chats speichern können – ohne die Integrität ihrer Account-Daten zu gefährden.

Wichtige Verbesserungen und technische Details

Die Funktion „Temporärer Chat“ wurde Anfang des Jahres eingeführt, um zu verhindern, dass Gespräche das Training des ChatGPT-Modells beeinflussen oder in den Account-Verläufen erscheinen. Allerdings berichteten Nutzer:innen von Einschränkungen bei der Personalisierung, da Einstellungen wie Tonfall, Stil oder Kontext bei jeder neuen Sitzung zurückgesetzt wurden.

Das anstehende Upgrade soll dies beheben, indem es:

  • Personalisierungseinstellungen (z. B. Kommunikationsstil, Kontextpräferenzen) innerhalb temporärer Chats beibehält
  • Strikte Datentrennung gewährleistet, um sicherzustellen, dass temporäre Gespräche keine Account-Daten oder das Modelltraining beeinflussen
  • Nutzerprivatsphäre schützt, indem temporäre Chats weiterhin von Trainingsdaten ausgeschlossen bleiben

OpenAI hat keine spezifischen technischen Implementierungsdetails bekannt gegeben, betonte jedoch, dass das Upgrade auf Differential-Privacy-Techniken basiert, um Personalisierung und Datenschutz auszubalancieren. Die Funktion befindet sich derzeit in einer begrenzten Testphase und könnte schrittweise für Nutzer:innen ausgerollt werden.

Auswirkungen der Neuerung

Für Cybersicherheitsexpert:innen und datenschutzbewusste Nutzer:innen schließt dieses Update eine kritische Lücke in der Funktionalität von KI-Chatbots. Temporäre Chats werden häufig für sensible Gespräche genutzt, etwa für:

  • Die Verarbeitung vertraulicher Kundendaten
  • Das Testen von Sicherheits-Szenarien ohne Risiko von Datenlecks
  • Die Recherche zu proprietären oder regulierten Themen

Durch die Beibehaltung der Personalisierung reduziert OpenAI Reibungsverluste für Nutzer:innen, die temporäre Chats für sicherheitsrelevante Aufgaben einsetzen – und bleibt gleichzeitig konform mit Datenschutzstandards wie der DSGVO und dem CCPA.

Nächste Schritte für Nutzer:innen

OpenAI hat noch keinen öffentlichen Release-Termin für das Upgrade bekannt gegeben. Nutzer:innen können:

  1. Offizielle OpenAI-Ankündigungen auf Updates zur Testphase verfolgen
  2. Die Datenschutzdokumentation von ChatGPT auf Änderungen in den Datenverarbeitungspraktiken prüfen
  3. Feedback in den OpenAI-Community-Foren geben, falls sie für Beta-Tests ausgewählt werden

Sicherheitsteams sollten weiterhin die Richtlinien zur Nutzung von KI-Tools prüfen, um die Einhaltung organisatorischer Datenschutzanforderungen zu gewährleisten – selbst mit verbesserten Privatsphäre-Funktionen.

Teilen

TwitterLinkedIn