Microsoft bietet eine Lösung an, um die Verbreitung von Deepfakes im Internet zu stoppen

Microsoft bietet eine Lösung an, um die Verbreitung von Deepfakes im Internet zu stoppen

10 hardware

Microsoft startet ein neues Set von Standards zur Authentifizierung von Online-Inhalten

Microsoft hat die Einführung „technischer Standards“ angekündigt, um die Echtheit von Inhalten zu bewerten, die im Netz auftauchen. Ziel ist es, KI-Entwicklern und sozialen Plattformen dabei zu helfen festzustellen, ob Bilder oder Videos mit digitalen Werkzeugen (z. B. Deepfakes) verändert wurden und wie zuverlässig deren Dokumentation ist.

Wie das Prüfsystem funktioniert
* Beispiel mit einem Rembrandt-Gemälde

- Es wird ein detailliertes Herkunftslog erstellt: Speicherorte, frühere Besitzer.

- Das Gemälde wird gescannt, aus den Pinselstrichen eine mathematische Signatur – „digitaler Fingerabdruck“ – generiert.

- Beim Ausstellen im Museum kann der Besucher diese Daten öffnen und die Originalität verifizieren.

* Methoden sind bereits im Einsatz

Microsoft hat 60 Kombinationen bestehender Techniken untersucht (Metadatenlöschung, kleine Änderungen, gezielte Manipulation). Für jedes Modell wurde das Verhalten in unterschiedlichen Szenarien simuliert.

Die Forscher fanden heraus:

- Zuverlässige Kombinationen – können einer breiten Öffentlichkeit gezeigt werden.

- Unzuverlässige Kombinationen – könnten die Situation nur verschärfen und mehr Verwirrung stiften.

Warum das wichtig ist
* Gesetzgebung verlangt Transparenz von KI (z. B. „AI Transparency Act“ in Kalifornien).

* Microsoft hat noch nicht angekündigt, ob es diese Standards auf seinen Diensten anwendet: Copilot, Azure, OpenAI und LinkedIn.

Die Standards bestimmen nicht die Wahrheit des Inhalts; sie zeigen lediglich, ob ein Material manipuliert wurde und woher es stammt. Wenn die Branche sie übernimmt, wird das Erstellen irreführender Inhalte deutlich schwieriger.

Status der Industrie
| Unternehmen | Aktion | Status |
|-------------|--------|--------|
| Microsoft C2PA (2021) | Herkunftsverfolgung | Weiterentwicklung neuer Mittel |
| Google | Wasserzeichen für KI-generierte Inhalte (seit 2023) | Aktive Implementierung |

Doch das komplette Toolset von Microsoft könnte nur ein „Projekt“ bleiben, wenn Marktteilnehmer die Gefahr für ihre Geschäftsmodelle sehen.

Wirksamkeit bestehender Lösungen
* Eine Studie zeigte, dass nur 30 % der Beiträge auf Instagram, LinkedIn, Pinterest, TikTok und YouTube korrekt als KI-generiert gekennzeichnet sind.

* Schnelle Einführung von Prüfsystemen ist riskant: Ausfälle können das Vertrauen der Nutzer untergraben.

Komplexe Prüfmechanismen sind vorzuziehen. Wenn ein glaubwürdiges Bild leicht von einer KI bearbeitet wurde, könnte die Plattform es fälschlicherweise als vollständig generiert einstufen. Ein integrierter Ansatz reduziert die Wahrscheinlichkeit von Fehlalarmen.

Fazit
Microsoft bietet einen strukturierten Satz von Standards zur Erkennung digitaler Manipulation von Inhalten an. Diese Werkzeuge sollen Transparenz und Vertrauen in Online-Materialien erhöhen, aber ihr Erfolg hängt davon ab, ob die Branche sie annimmt und wie zuverlässig die integrierten Prüfungen sind.

Kommentare (0)

Teile deine Meinung — bitte bleib höflich und beim Thema.

Noch keine Kommentare. Hinterlasse einen Kommentar und teile deine Meinung!

Um einen Kommentar zu hinterlassen, melde dich bitte an.

Zum Kommentieren anmelden