In einem kürzlich veröffentlichten Paper der Ben-Gurion University wurde eine neue Sicherheitslücke in der Kommunikation mit künstlichen Intelligenz-Assistenten wie ChatGPT aufgedeckt. Diese Schwachstelle ermöglicht es Angreifern, verschlüsselte Chat-Konversationen zu rekonstruieren, obwohl die Chat Daten auf einem gesicherten TLS verschlüsselten Kanal übertragen worden sind.
Die Forscher konnten zeigen, dass die Größe der übertragenen Pakete, trotz Verschlüsselung, Aufschluss über die Länge der enthaltenen Token gibt. Durch diese Information gelang es ihnen, mittels eines speziell trainierten großen Sprachmodells (LLM), den ursprünglichen Text der AI-Assistenten-Antworten zu rekonstruieren.
Die Erfolgsquote dieser Methode ist bemerkenswert: In ihren Experimenten konnten die Wissenschaftler 29% der Antworten eines KI-Assistenten genau rekonstruieren und den Themenkontext aus 55% der Antworten erfolgreich ableiten. Diese Ergebnisse unterstreichen das Potenzial dieser Sicherheitslücke, sensible Informationen preiszugeben.
Um gegen diese Art von Angriffen gewappnet zu sein, schlagen die Forscher mehrere Gegenmaßnahmen vor, darunter das Hinzufügen von zufälligem Padding zu den Nachrichten oder das Gruppieren von Token, um die exakte Längeninformation zu verschleiern.
Diese Entdeckung stellt die Sicherheit und den Datenschutz von KI-gestützten Kommunikationsdiensten grundsätzlich in Frage. Stand heute sind alle LLM Chats dadurch abhörbar. Es bleibt zu hoffen, dass die vorgeschlagenen Gegenmaßnahmen bald in LLM Chatsysteme Einzug bekommen.
Professionelle Hilfe erwünscht?
Sentiguard ist spezialisiert auf Notfallhilfe nach Cyberattacken, IT Sicherheitsbeauftragte und IT Sicherheitskonzepte nach BSI Standard. Haben Sie Fragen und wünschen Sie unverbindliche Beratung, dann melden Sie sich gerne bei uns: