Die Illusion der Anonymität ist gefallen – Studie enthüllt: KI kann anonyme Internetprofile systematisch enttarnen

Nicht das FBI.
Nicht ein staatlicher Geheimdienst.
Sondern handelsübliche KI.

Forscher der ETH Zürich und von Anthropic haben mit ihrer Studie „Large-Scale Online Deanonymization with LLMs“ gezeigt, was viele ahnten – aber niemand in dieser Klarheit belegen konnte:

Große Sprachmodelle können anonyme Internetidentitäten systematisch enttarnen. Automatisiert. Skalierbar. Und mit hoher Präzision.

Die Pipeline funktioniert in mehreren Schritten.
LLMs extrahieren aus scheinbar harmlosen Beiträgen Identitätssignale – biografische Fragmente, Interessenmuster, sprachliche Eigenheiten.
Anschließend werden mithilfe semantischer Embeddings Kandidatenprofile durchsucht.
Danach bewerten Modelle wie GPT die wahrscheinlichsten Treffer und kalibrieren die Konfidenz so, dass Fehlidentifikationen minimiert werden.

Kein Ermittler.
Kein monatelanges Daten-Mining.
Kein exklusiver Geheimdienstzugang.

Nur Rechenleistung.

Die Zahlen sind alarmierend.

Holy shit… Your anonymous internet identity can now be unmasked for $1 Die Illusion der Anonymität ist gefallen – Studie enthüllt: KI kann anonyme Internetprofile systematisch enttarnen

Not by the FBI. By anyone with access to Claude or ChatGPT and a few of your Reddit comments.

ETH Zurich and Anthropic just dropped a paper called “Large-Scale Online Deanonymization with LLMs” and the… pic.twitter.com/7XJ5AFsouX

— Alex Prompter (@alex_prompter) February 26, 2026

In einem plattformübergreifenden Szenario erreichte das System eine Trefferquote von bis zu 67 % bei 90 % Genauigkeit.
Selbst bei extrem hoher Sicherheit – 99 % Präzision – blieben noch signifikante Treffer übrig.

Zeitliche Distanz schützt nicht:
Ein Jahr zwischen alten und neuen Reddit-Beiträgen reichte nicht aus, um die Identität zuverlässig zu verschleiern.

Besonders brisant:
Klassische Deanonymisierungsverfahren – etwa aus der Netflix-Prize-Ära – versagten nahezu vollständig.
LLMs haben diese Techniken nicht nur verbessert.
Sie haben sie obsolet gemacht.

Die Forscher sprechen offen aus, was das bedeutet:

Wer unter wiederkehrenden Benutzernamen postet, sollte davon ausgehen, dass seine Konten mit realen Identitäten verknüpft werden können.

Das ist kein theoretisches Risiko mehr.
Es ist ein skalierbares Angriffsszenario.

Und es wird stärker.

Mehr Rechenleistung erhöht die Erfolgsquote.
Bessere Modelle verbessern die Verknüpfungsqualität.
Jedes KI-Upgrade verschiebt die Balance weiter zulasten der Privatsphäre.

Besonders perfide:
Der Angriff zerfällt in scheinbar harmlose Teiloperationen – Profilanalyse, Embedding-Suche, Kandidatenranking. Kein einzelner API-Call trägt das Label „Deanonymisierung“. Klassische Schutzmechanismen wie Ratenbegrenzung greifen hier kaum.

Was lange als „praktische Anonymität“ galt – also Schutz durch Aufwand – existiert nicht mehr.

Die Studie markiert einen Wendepunkt.

Das Internet war nie wirklich anonym.
Aber es war teuer genug, Menschen in Ruhe zu lassen.

Diese Kostenbarriere ist gefallen.

Und damit endet eine Ära.