Microsoft Copilot ist tief in Microsoft 365 integriert und hat Zugriff auf praktisch alles, was ein Mitarbeiter sehen kann – E-Mails, SharePoint-Dokumente, Teams-Chats. Genau das ist das Problem: In den meisten Unternehmen haben Mitarbeiter weit mehr Zugriffsrechte als nötig. Laut einem Bericht von Concentric AI sind 16 % aller geschäftskritischen Daten übermäßig geteilt, im Schnitt rund 800.000 Dateien pro Organisation. Copilot erbt diese Berechtigungen – und kann damit ungewollt zum Datenleck werden.
Hinzu kommt: Copilot-Ausgaben übernehmen keine Vertraulichkeits-Labels der Quelldateien. Wer also ein Dokument mit „Streng Vertraulich“ als Quelle nutzt, bekommt eine KI-Ausgabe ohne diese Kennzeichnung – die dann unbeabsichtigt weitergeteilt wird. Auch eine konkrete Schwachstelle (CVE-2024-38206) in Copilot Studio wurde bekannt: Ein SSRF-Fehler ermöglichte es authentifizierten Angreifern, interne Microsoft-Infrastruktur abzufragen. Microsoft hat den Fehler gepatcht, aber er zeigt, dass KI-Tools neue Angriffsflächen schaffen.
Bin ich betroffen? Wer Microsoft 365 mit Copilot einsetzt und keine gezielten Zugriffskontrollen eingerichtet hat, ist potenziell betroffen. Besonders riskant: SharePoint-Ordner mit breiten Berechtigungen, unklassifizierte Dokumente und externe Freigaben.
Empfehlung: Vor dem Copilot-Einsatz Berechtigungen nach dem Least-Privilege-Prinzip auditieren, Datei-Klassifizierungen durchsetzen und externe Freigaben einschränken. Wer Copilot bereits nutzt, sollte prüfen, welche Daten für wen sichtbar sind – am besten mit einem Data-Access-Audit.
Quelle: concentric.ai




