Ein Forschungsteam konnte kürzlich eine Schwachstelle in ChatGPT ausnutzen, um private Daten, einschließlich der E-Mail-Adressen von mehr als 30 Mitarbeitern der New York Times, preiszugeben. Dieser Vorfall wirft ernsthafte Fragen über die Sicherheit und den Datenschutz bei der Nutzung von KI-basierten Systemen wie ChatGPT auf.
Bei dem Angriff nutzten die Forscher bestimmte Schlüsselwörter, um ChatGPT dazu zu bringen, auf seine Trainingsdaten zuzugreifen und Informationen preiszugeben, die nicht zur Offenlegung bestimmt waren. Durch wiederholte Aufforderungen, das Wort „poem“ (dt. „Gedicht“) endlos zu wiederholen, zwangen sie das Modell dazu, über seine Trainingsverfahren hinauszugehen und auf eingeschränkte Details in seinen Trainingsdaten zuzugreifen. Dies führte zur Offenlegung sensibler Informationen, darunter E-Mail-Adressen und Telefonnummern.
Der Vorfall verdeutlicht das Risiko, dass ChatGPT große Mengen seiner Trainingsdaten wortwörtlich wiedergeben kann, was es anfällig für umfangreiche Datenextraktionen macht. Die Forscher gaben an, dass sie mit nur 200 Dollar Einsatz über 10.000 einzigartige Beispiele für Daten extrahieren konnten, die ChatGPT „memorisiert“ hatte. Das legt nahe, dass jemand mit ernsthaften Absichten und mehr Mitteln deutlich mehr Daten extrahieren könnte.
Als Reaktion auf diese Sicherheitsbedenken führte OpenAI eine Funktion ein, die den Chatverlauf deaktiviert, um einen zusätzlichen Schutz für sensible Daten zu bieten. Diese Daten werden jedoch weiterhin 30 Tage lang gespeichert, bevor sie dauerhaft gelöscht werden.
Professionelle Hilfe erwünscht?
Sentiguard ist spezialisiert auf Datenschutzberatung, Auditing und internationalen Datentransfer (TIA). Machen Sie kurzfristig einen Termin aus: