Das KI-Unternehmen OpenAI plant, bei gefährlichen Inhalten in ChatGPT-Konversationen stärker einzugreifen. Wenn Nutzer anderen Menschen ernsthaft Schaden androhen, sollen entsprechende Verläufe von einem Team geprüft und – falls akute Gefahr besteht – an die Strafverfolgung weitergegeben werden.
Gespräche, in denen es um Selbstverletzung geht, bleiben dagegen intern und führen nicht zu einer Meldung. OpenAI räumt ein, dass die Schutzmechanismen von ChatGPT vor allem bei längeren Unterhaltungen weniger zuverlässig funktionieren. Deshalb arbeitet das Unternehmen an Verbesserungen, damit Warnhinweise auch über längere Dialoge hinweg konsistent bleiben.
Künftig denkt OpenAI zudem über zusätzliche Funktionen nach: Nutzer in psychischen Notsituationen sollen leichter professionelle Hilfe erreichen oder auf Wunsch ihre Angehörigen direkt kontaktieren können – in schweren Fällen könnte auch ChatGPT selbst den Kontakt herstellen. Bereits jetzt verweist der Dienst in den USA und Europa auf passende Hilfsangebote.
Professionelle Hilfe erwünscht?
Sentiguard ist spezialisiert auf Datenschutzberatung, Auditing und internationalen Datentransfer (TIA). Machen Sie kurzfristig einen Termin aus: