KI kann jetzt die wahren Schöpfer gefälschter Online-Konten aufdecken und damit die Anonymität im Netz gefährden.

KI kann jetzt die wahren Schöpfer gefälschter Online-Konten aufdecken und damit die Anonymität im Netz gefährden.

9 hardware

Wie künstliche Intelligenz gefälschte Konten aufdeckt

In Netzwerken erstellen viele Nutzer anonyme oder gefälschte Profile und glauben, dass dies ihre Identität schützt. Neue Untersuchungen zeigen jedoch, dass moderne KI-Modelle nicht nur solche „Fälschungen“ erkennen können, sondern auch den echten Besitzer bestimmen.

Wer hat diese Frage untersucht?

Die Eidgenössische Technische Hochschule Zürich (ETH Zürich), das unabhängige Bildungs- und Forschungsprogramm MATS sowie das Unternehmen Anthropic haben gemeinsam die Ergebnisse in Form eines PDF-Dokuments veröffentlicht.

Wie funktionieren KI‑Modelle?

Die Modelle nutzen eine Reihe von Signalen: Übereinstimmungen von Daten (von kleinen Fragmenten bis zu großen Datensätzen) und charakteristische Verhaltensmuster. Diese Merkmale ermöglichen es, die Authentizität eines Kontos „verdächtig“ einzuschätzen und in den meisten Fällen dessen echten Besitzer zu finden.

Schlüsselzahlen der Studie

Kennzahl | Wert
Erfolgreiche Erkennung von Fakes | 68 %
Genaues Identifizieren des realen Besitzers | 90 %

Warum ist das wichtig?

Die Ergebnisse können nicht nur normale Nutzer betreffen, sondern auch diejenigen, die Informationen unter fremden Namen in sozialen Netzwerken veröffentlichen. KI kann echte Namen von Hackern aufdecken, die vertrauliche Daten von Unternehmensangestellten verbreiten, sowie Personen, die Fragen in offenen Foren stellen. Selbst Geschäftsleiter nutzen manchmal Pseudonyme zur Förderung ihres Unternehmens oder zum Schaden von Konkurrenten – ein bekanntes Beispiel ist Elon Musk. Darüber hinaus kann die Enthüllung der Identität Informanten, Aktivisten und Opfern von Gewalt gefährden, deren Anonymität lebenswichtig ist.

Probleme beim Schutz vor De-Anonymisierung

Wissenschaftler empfehlen mehrere Maßnahmen:

1. Beschränken Sie den Zugriff auf Benutzerdaten über APIs auf Plattformen.
2. Verstärken Sie Mechanismen zur Erkennung automatisierter Datensammlung.
3. Minimieren Sie den Export großer Datenmengen.

Die Forscher betonen jedoch, dass selbst diese Schritte keine hundertprozentige Sicherheit garantieren. In den kommenden Jahren – und sogar Monaten – wird es immer schwieriger sein, KI daran zu hindern, solche Operationen durchzuführen.

Fazit:

KI‑Modelle sind bereits in der Lage, gefälschte Konten zu erkennen und ihre echten Besitzer in einem großen Teil der Fälle zu identifizieren. Dies gefährdet die Anonymität nicht nur gewöhnlicher Nutzer, sondern auch jener, deren Sicherheit von Verheimlichung abhängt. Verstärkte Schutzmaßnahmen können den Prozess verlangsamen, werden jedoch die technologische Entwicklung bislang nicht stoppen.

Kommentare (0)

Teile deine Meinung — bitte bleib höflich und beim Thema.

Noch keine Kommentare. Hinterlasse einen Kommentar und teile deine Meinung!

Um einen Kommentar zu hinterlassen, melde dich bitte an.

Zum Kommentieren anmelden