Ein kurioser, aber potenziell heikler Datenschutzfehler hat bei ChatGPT dazu geführt, dass Nutzereingaben (Prompts) über Google Search Console sichtbar wurden. Nutzer bemerkten plötzlich fremde, teils persönliche Suchanfragen in ihren GSC-Daten – offenbar stammten diese direkt aus ChatGPT-Abfragen.
Wie mehrere Sicherheitsforscher herausfanden, ruft ChatGPT bei bestimmten Suchanfragen nicht über eine API, sondern direkt über Google Search Ergebnisse ab. Dabei wurden ganze Prompts inklusive URL-Parameter an Google übermittelt, wodurch sie in Suchstatistiken auftauchten. Betroffen war vor allem die Seite https://openai.com/index/chatgpt/, deren Eingabefeld einen Bug enthielt, der die URL automatisch an Prompts anhängte.
OpenAI reagierte nach Berichten von Ars Technica und erklärte, der Fehler sei behoben und habe nur eine „kleine Zahl“ von Prompts betroffen. Dennoch bleibt die Episode ein weiteres Beispiel dafür, wie schnell bei KI-Systemen Datenschutzgrenzen verschwimmen, wenn Websuche, Scraping und Nutzerinteraktion ineinandergreifen.




