Generative KI erstellt auf Basis von Trainingsdaten originäre Inhalte, die so noch nie dar gewesen schienen. Es ist Fluch und Segen zugleich, denn der zu erwartende wirtschaftliche Produktivitätsschub durch generative KI ist immens. Allerdings sind auch die Gefahren real, die durch solche Technologien entstehen können und mit diesen werden wir uns nun etwas genauer beschäftigen.
Datenschutzbedenken
Eine Umfrage von Applause, die über 3.100 Fachleute weltweit umfasste, ergab, dass 67% der Befragten glauben, dass generative KI-Dienste den Datenschutz verletzen. Diese Sorge ist nicht unbegründet, da generative KI oft auf großen Datenmengen basiert, die persönliche Informationen enthalten können.
Risiken im Detail:
- Voreingenommenheit und Ungenauigkeit: Etwa 90% der Befragten in der Applause-Studie äußerten Bedenken hinsichtlich der Voreingenommenheit (Bias) von KI-generierten Inhalten, welche die Genauigkeit und Relevanz der Ergebnisse beeinträchtigen könnte. Solche Verzerrungen können zu Diskriminierung und unfairen Behandlungen führen, was die Persönlichkeitsrechte der Betroffenen verletzt.
- Urheberrechtsverletzungen: 91% der Befragten fürchteten, dass durch generative KI produzierte Inhalte gegen Urheberrechte verstoßen könnten. Die unautorisierte Nutzung und Reproduktion geschützter Werke stellt eine Verletzung des geistigen Eigentums dar.
- Missbrauch und rechtswidrige Datenverarbeitung: In einigen Fällen wurden generative KI-Systeme für rechtswidrige Zwecke genutzt. Zum Beispiel verhängte die italienische Datenschutzbehörde Garante Bußgelder gegen Online-Lebensmittelliefer-Apps, weil deren Algorithmen bestimmte Arbeitnehmergruppen benachteiligten. Ebenso wurde der Chatbot Replika kritisiert, weil er keine Altersverifizierung hatte und so die Gefahr bestand, dass Minderjährige unangemessenen Inhalten ausgesetzt waren.
- Datenschutzverletzungen in der Personalbeschaffung: Beim Einsatz von KI-Chatbots in der Rekrutierung befürchten Aufsichtsbehörden eine Beeinträchtigung der Privatsphäre von Arbeitssuchenden und die Verstärkung bestehender Vorurteile.
Gefahr durch Deepfakes
Das Hauptrisiko von Deepfakes liegt sowohl in Voice- als auch in Video-Deepfakes, da beide Arten von Fälschungen ernsthafte Bedrohungen darstellen können:
- Video Deepfakes: Sie können genutzt werden, um falsche Darstellungen von Personen zu erstellen, z.B. politische Führer, die fiktive Aussagen treffen. Dies kann zu Missverständnissen, Desinformation und politischer Destabilisierung führen.
- Voice Deepfakes: Sie bergen das Risiko, Personen durch Imitation ihrer Stimme zu imitieren. Dies kann für betrügerische Zwecke wie Identitätsdiebstahl oder Täuschung in sensiblen Geschäftstransaktionen genutzt werden.
Die Technologie wurde in der vergangenheit bereits eingesetzt um prominente Persönlichkeiten wie Scarlett Johansson unerlaubt für Werbung zu verwenden. Ein türkisches Unternehmen verwendete ein älteres Video von ihr und ihre geklonte Stimme, um einen Werbeclip für eine App zu erstellen, ohne ihre Zustimmung. Johansson reichte daraufhin eine Klage ein.
Gefahr durch optimierte Shallow-Fakes
Shallowfakes, im Gegensatz zu Deepfakes, sind manipulierte Videos oder Audiodateien, die meist ohne den Einsatz von fortgeschrittenen KI-Algorithmen erstellt werden und auf Basis einer realen Vorlage erstellt werden. Sie umfassen Techniken wie das Beschleunigen, Verlangsamen oder Herausschneiden von Teilen eines Videos oder einer Audioaufnahme, um den Kontext zu verändern oder falsche Darstellungen zu erzeugen. Shallowfakes können ebenfalls irreführend sein und werden oft in Desinformationskampagnen verwendet. Der Umgang mit Shallowfakes erfordert ähnliche Vorsichtsmaßnahmen wie bei Deepfakes, einschließlich der Überprüfung der Quelle und des Kontexts des Materials. Es ist durchaus möglich, dass Techniken sowohl aus dem Bereich der Shallowfakes als auch der generativen KI kombiniert werden, um manipulierte Medieninhalte zu erstellen. In solchen Fällen könnte eine generative KI genutzt werden, um bestimmte Aspekte eines Videos oder einer Audioaufnahme zu verbessern oder zu verändern, während grundlegendere Bearbeitungstechniken (wie Schnitte, Geschwindigkeitsänderungen) angewendet werden, um den Kontext zu verändern oder bestimmte Effekte zu erzielen. Solche Hybridformen würden die Komplexität und möglicherweise auch die Überzeugungskraft der Fälschungen erhöhen, was sie zu einer herausfordernden Aufgabe für die Erkennung und Verifizierung macht.
Gefahr durch KI optimiertes Phishing
Durch die Verwendung gestohlener Daten könnten gezielte Phishing-Angriffe durchgeführt werden, die auf spezifische Personen oder Organisationen abzielen. Phishing-Angriffe können zwar auch ohne KI durchgeführt werden, aber der Einsatz von KI kann diese Angriffe wesentlich effektiver und gefährlicher machen. KI-Systeme können beispielsweise große Mengen an gestohlenen Daten analysieren, um personalisierte und überzeugende Phishing-Nachrichten zu erstellen, die speziell auf die Interessen oder Gewohnheiten der Opfer zugeschnitten sind. Dadurch steigt die Wahrscheinlichkeit, dass die Empfänger auf die betrügerischen Nachrichten reagieren. KI kann auch dazu verwendet werden, automatisch Phishing-Seiten zu erstellen, die legitimen Websites täuschend ähnlich sehen, wodurch die Erkennung und Verhinderung von Phishing-Angriffen erschwert wird.
Gefahr der Erstellung gefälschter Dokumente
Kriminelle könnten gestohlene persönliche Informationen verwenden, um mithilfe von KI-Technologie gefälschte Ausweisdokumente oder Verträge zu erstellen. Die Gefahr gefälschter Dokumente durch generative KI ist höher, weil diese Technologien in der Lage sind, sehr realistische und überzeugende Fälschungen zu erstellen. Mit fortschrittlichen KI-Algorithmen können Texte, Unterschriften, Siegel oder andere wichtige Merkmale von Dokumenten so nachgeahmt werden, dass sie für das menschliche Auge echt erscheinen. Diese Fähigkeit erhöht das Risiko für Betrug und Täuschung erheblich, da es schwieriger wird, echte von gefälschten Dokumenten zu unterscheiden. Ein Artikel auf LTO.de berichtet über einen Anwalt aus New York, der ChatGPT für Recherchezwecke benutzte. Dabei generierte ChatGPT mehrere Urteile, die nicht existierten, was der Anwalt zunächst nicht erkannte. Er verwendete diese fiktiven Urteile in einem Schriftsatz, was zu Verwirrung führte. Der Fall unterstreicht die Bedeutung der Überprüfung von Informationen, die von KI-Systemen generiert werden, und wirft Fragen über den verantwortungsvollen Einsatz von KI in rechtlichen Zusammenhängen auf.
So kann Missbrauch durch generative KI verhindert werden
bei allen zentral organisierten generativen KIs wie der von OpenAI, der von Tesla oder der von Google könnten folgende Massnahmen helfen, den Missbrauch zu oben genannten Zwecken einzudämmen:
- Interne Richtlinien und Schulungen: Unternehmen etablieren interne Ethikrichtlinien und schulen ihre Mitarbeiter entsprechend, um das Bewusstsein und die Einhaltung dieser Richtlinien zu fördern.
- Unabhängige Prüfungen und Audits: Regelmäßige Überprüfungen und Audits durch unabhängige Dritte können helfen, die Einhaltung der Ethikrichtlinien zu überwachen.
- Regulatorische Rahmenbedingungen: Gesetze und Vorschriften können Unternehmen zur Einhaltung bestimmter ethischer Standards zwingen.
- Öffentliche Transparenz und Rechenschaftspflicht: Die Offenlegung der ethischen Grundsätze und Praktiken gegenüber der Öffentlichkeit schafft eine zusätzliche Ebene der Verantwortlichkeit.
Der rechtliche Rahmen ist jedoch noch ganz am Anfang. So haben zum Beispiel Staaten wie Kalifornien und Virginia Gesetze erlassen, die die Verwendung von Deepfakes unter bestimmten Umständen kriminalisieren, insbesondere im Kontext von Wahlen und nicht einvernehmlicher pornografischer Darstellungen. Die EU hingegen hält sich noch sehr zurück, ein KI Gesetz ist aber bereits in Planung.
Viel schwieriger gestaltet sich jedoch die Eindämmung von offen per Source Code zugänglichen generativen KIs wie Llama2 von Meta. Die Überwachung des Datenschutzes bei Open-Source-Generative-KI-Modellen wie Llama2 kann eine grosse Herausforderung darstellen. Da diese Modelle offen zugänglich und von verschiedenen Entwicklern verwendet werden, ist es schwierig, die Verwendung und den Umgang mit Daten durch die Nutzergemeinschaft zu kontrollieren. Wenn z.B. ein Botnetz Llama2 oder ein ähnliches Open-Source-generatives KI-Modell betreiben würde, wären die Risiken erheblich. Ein Botnetz könnte ein solches Modell nutzen, um eine massive Menge an bösartigen Inhalten zu generieren, einschließlich gefälschter Nachrichten, Phishing-Meldungen und Deepfakes, und dies in einem beispiellosen Ausmaß. Dies könnte zu weit verbreiteten Desinformationskampagnen, Cyberangriffen und einer schwerwiegenden Beeinträchtigung des Vertrauens in digitale Inhalte führen. Die Risikobewertung in diesem Szenario ist hoch, da das Potenzial für Schaden und Störung erheblich ist, und die Abwehr solcher Risiken wäre eine komplexe Herausforderung.
Professionelle Hilfe erwünscht?
Sentiguard ist spezialisiert auf Notfallhilfe nach Cyberattacken, IT Sicherheitsbeauftragte und IT Sicherheitskonzepte nach BSI Standard. Haben Sie Fragen und wünschen Sie unverbindliche Beratung, dann melden Sie sich gerne bei uns:
+49 (0) 89 339 800 807
info@sentiguard.eu
Entdecken Sie Unsere Gratis-Tools für Ihren Datenschutz
![DSGVO Datenschutzerklärung kostenlos - online](https://www.sentiguard.eu/wp-content/uploads/sentiguard-tool-datenschutz-generator-kostenlos.jpg#1139)
Datenschutz Erklärung
geeignet für
- Webshops
- Blog
- Online Marketing
- Firmenwebseiten
![Technisch organisatorische Maßnahmen](https://www.sentiguard.eu/wp-content/uploads/sentiguard-tool-tom-technisch-organisatorische-massnahmen-kostenlos.jpg#1144)
TOM Verzeichnis
geeignet für
- Online Shops
- Webplattformen
- Personalvermittler
- Vereine
![Verzeichnis der Verarbeitungstätigkeiten online Generator, als Teil unseres DSGVO Datenschutz Komplettpakets](https://www.sentiguard.eu/wp-content/uploads/sentiguard-tool-verzeichnis-der-verarbeitungstaetigkeiten-generator-kostenlos.jpg#1146)
VVT/VDV Liste
geeignet für
- KMU
- Freiberufler
- Ärzte
- Vereine