Copilot durchsucht private E-Mails von Nutzern und umgeht dabei den Schutz – Microsoft hat dies als Fehler eingestuft.
Microsoft hat einen Fehler in Copilot entdeckt, der vertrauliche E-Mails zusammenfasste
Laut einer internen Mitteilung des Unternehmens begann der Fehler in Microsoft 365 Copilot Ende Januar damit, dass die KI‑Assistenz automatisch den Inhalt von Benutzern-E-Mails zusammenfasste. Dabei wurden die Data‑Loss‑Prevention‑ (DLP) Richtlinien umgangen, die Organisationen zum Schutz sensibler Informationen einsetzen.
Was genau schiefgelaufen ist
* Der Bug mit der Nummer CW1226326 wurde am 21 Januar gemeldet und betrifft die Chat-Funktion im Arbeitsbereich von Copilot.
* Infolgedessen las der Algorithmus E-Mails in den Ordnern „Gesendet“ und „Entwürfe“ fehlerhaft, einschließlich Nachrichten, die als vertraulich markiert waren (sie beschränken den Zugriff automatisierter Tools gezielt).
* Microsoft meldet: *„E‑Mails von Benutzern mit dem Kennzeichen ‚vertraulich‘ werden von Microsoft 365 Copilot Chat nicht korrekt verarbeitet.“* Darin wird auch betont, dass die KI E-Mails zusammenfasst, selbst wenn ein Vertraulichkeitskennzeichen oder eine DLP‑Richtlinie vorhanden ist.
Wie reagiert Microsoft
* Später bestätigte das Unternehmen, dass der Grund ein Codefehler sei und begann Anfang Februar mit der Entwicklung eines Patches.
* Bis zur Mitte dieser Woche berichtete Microsoft, dass sie die Bereitstellung des Fixes weiterhin überwachen und sich mit den betroffenen Benutzern in Verbindung setzen, um die Qualität des Updates zu bewerten.
Was noch unbekannt ist
Microsoft hat bisher keine genauen Termine für die vollständige Behebung des Fehlers angegeben und nicht veröffentlicht, wie viele Benutzer oder Organisationen betroffen sind. Im Bericht heißt es, dass sich der Umfang des Problems im Zuge der Untersuchung ändern könnte.
Kommentare (0)
Teile deine Meinung — bitte bleib höflich und beim Thema.
Zum Kommentieren anmelden