top of page

Gefährliche Lücken: Warum Community Notes Desinformation nicht stoppen

Aktualisiert: 14. Nov.

Seit seiner Einführung als „Community Notes“ (ehemals „Birdwatch“) hat X – früher bekannt als Twitter – ein ambitioniertes Ziel verfolgt: Desinformation durch die kollektive Intelligenz der Nutzer einzudämmen. Statt zentraler Moderation setzt das System auf „kontextualisierende“ Kommentare, die Nutzende in einem strukturierten Verfahren zu irreführenden oder falschen Tweets hinzufügen können. 


Bildquelle: Artlist.io
Bildquelle: Artlist.io

Die Grundidee: Wenn Menschen mit unterschiedlichen Weltanschauungen sich auf eine gemeinsame Einordnung verständigen können, ist dies besonders glaubwürdig – und kann in Echtzeit Desinformation entschärfen.


Doch was in der Theorie wie ein demokratisches Korrektiv wirkt, erweist sich in der Praxis zunehmend als strukturell fehlerhaft. Besonders abseits des englischsprachigen Raums versagt das System: Es ist langsam, sprachlich unausgewogen und in Teilen sogar anfällig für gezielte Instrumentalisierung. Eine aktuelle Studie des Center for the Study of Organized Hate (CSOH) unterstreicht: Gerade in Süd- und Südostasien – Regionen mit hoher Anfälligkeit für Online-Desinformation – sind Community Notes nicht nur selten, sondern oft auch wirkungslos.


Ein globales Tool mit einseitigem Fokus

Die Schwächen von Community Notes beginnen bei der globalen Abdeckung. Laut der CSOH-Studiewurden von April 2024 bis April 2025 über 1,85 Millionen öffentliche Notes analysiert. Davon entfielen gerade einmal 1.608 Beiträge auf südasiatische Sprachen wie Hindi, Urdu, Tamil, Bengali oder Nepali – das sind 0,094 Prozent des Gesamtvolumens. Und nur 37 dieser Notes wurden jemals tatsächlich in der öffentlichen Timeline der Nutzenden angezeigt.


Diese Zahl ist alarmierend, bedenkt man, dass Südasiens Bevölkerung rund ein Viertel der Welt ausmacht und etwa fünf Prozent der monatlichen X-Nutzer:innen stellt. Während englischsprachige Desinformation regelmäßig kontextualisiert wird, bleibt ein Großteil der Falschinformationen in südasiatischen Sprachen unberührt.


Diese Ungleichheit ist nicht nur ein technisches Versäumnis, sondern auch ein Gerechtigkeitsproblem: Die Plattform schafft ein Zwei-Klassen-System, in dem die einen durch kollektive Einordnung geschützt sind, während andere schutzlos der Manipulation ausgeliefert bleiben.


Technische Hürden und algorithmische Blindstellen

Community Notes basiert auf zwei zentralen Mechanismen: Erstens müssen Nutzer Notizen als „hilfreich“ bewerten, und zweitens muss ein sogenannter Bridging Test bestanden werden – dabei müssen Personen mit unterschiedlichen politischen Haltungen zustimmen. In der Theorie soll dies sicherstellen, dass Notes nicht in ideologischen Filterblasen entstehen. In der Praxis aber sorgt genau dieser Konsensmechanismus in sprachlich kleineren Communities für systematische Blockaden.


Südasien ist laut WEF gegenüber Mis-und Desinformation besonders exponiert. Gerade bei vielen südasiatischen Sprachen fehlt es an aktiven Reviewern mit hinreichend unterschiedlichen Perspektiven. So erreichen selbst akkurate, gut bewertete Notes häufig nicht die Veröffentlichungsschwelle. Während etwa 65 Prozent der englischen Notes diesen zweiten Test bestehen, gelingt das in südasiatischen Sprachen nur bei weniger als 40 Prozent. Das Resultat: Desinformation bleibt stehen, während Richtigstellungen in Entwürfen verschwinden.


Hinzu kommt: Anders als bei normalen Tweets gibt es keine inhaltliche Moderation durch X, wenn Community Notes eingereicht werden. Die Plattform verlässt sich vollständig auf die Öffentlichkeit, bzw. ihre Nutzenden. Das ist besonders problematisch, da in bestimmten Sprachkontexten – wie Hindi oder Urdu – beleidigende, hetzerische oder extremistische Narrative im Digitalen zum politischen Alltag gehören. Die CSOH-Studiedokumentiert etwa Notes-Entwürfe mit Formulierungen wie „Italian-mafia supporters“ für Wähler:innen der indischen Kongresspartei oder diffamierende Begriffe für pakistanische Polizeikräfte.


Der westliche Blick: Symbol statt Substanz

Auch im Westen gilt Community Notes oft als Vorzeigebeispiel für transparente, dezentrale Inhaltsmoderation. Elon Musk selbst lobte das Feature mehrfach als „Schutzschild gegen Zensur“ und „beste Verteidigung gegen Desinformation“. Doch diese Selbstdarstellung blendet strukturelle Probleme aus: So zeigt eine unabhängige Momentaufnahme eines US-Pilotprojekts von Meta – das ein ähnliches Feature wie X testet –, dass die Mehrzahl der Einträge entweder irrelevant oder sachlich falsch war.


Auch in westlichen Kontexten bleibt die Frage: Wer verfasst Notes? Wer stimmt darüber ab? Und welche Inhalte erreichen die nötige Schwelle, um veröffentlicht zu werden? Der Anspruch, pluralistische Verständigung zu fördern, läuft ins Leere, wenn das System auf homogenen oder inaktiven Nutzergruppen basiert. Es entsteht kein demokratischer Diskursraum, sondern eine Echokammer algorithmischer Unzulänglichkeit.


Strukturelle Folgen: Sprachliche Ungleichheit als demokratisches Risiko

Die strukturellen Schwächen von Community Notes wirken sich nicht nur auf einzelne Posts aus, sondern gefährden die Integrität von Plattformen in ihrer Gesamtheit. In Wahlkampfphasen – etwa während der indischen Parlamentswahlen 2024 – stieg das Note-Volumen in südasiatischen Sprachen kurzzeitig stark an. Doch genau in diesen entscheidenden Momenten erwies sich das System als nicht skalierbar: Entwürfe stauten sich, während Falschinformationen viral gingen. Das Tool versagte just in dem Moment, in dem es am dringendsten gebraucht wurde.


Die Studie warnt zu Recht: Wenn Plattformen wie X oder künftig Meta ihr Engagement auf Hochphasen beschränken, statt dauerhaft vielfältige Reviewer-Netzwerke aufzubauen, verfehlen sie den eigentlichen Zweck. Auch die Veröffentlichungsschwellen müssen realitätsnah justiert werden – etwa indem kleinere, aber glaubwürdige Reviewer-Gruppen in Sprachen wie Nepali oder Bengali stärker gewichtet werden.


Fazit: Der Schein der Kollektivität

Community Notes verspricht kollektive Aufklärung, schafft aber im aktuellen Zustand nur eine Illusion von Gleichheit. Wer Englisch spricht, ist geschützt; wer Hindi, Urdu oder Tamil nutzt, bleibt verwundbar. In einer Zeit, in der Plattformen immer stärker politische Räume prägen, ist dies nicht nur ein technisches Versäumnis, sondern ein demokratischer Skandal.


Die Zukunft der digitalen Desinformationsbekämpfung liegt nicht in idealisierten Crowdsourcing-Träumen, sondern in konsequentem, gerechtem und sprachlich sensiblem Design. Nur so können Plattformen den Anspruch erfüllen, globale Gemeinschaften zu schützen – und nicht zu spalten.

Kommentare


Digitaler_Ungehorsam_Logo_Schriftzug.png

Gesellschaft für digitalen Ungehorsam mbH

Schivelbeiner Straße 8

10439 Berlin

Tel:  030 - 21 46 50 80

Fax: 030 - 69 08 81 01

SOCIAL
  • Schwarz LinkedIn Icon
  • Instagram
bottom of page