top of page

Crowdsourcing als Moderationsmodell: Was neue Forschung über Community Notes auf X zeigt

Aktualisiert: vor 4 Tagen


In den letzten Jahren haben soziale Medienplattformen zunehmend mit gemeinschaftsbasierten Formen der Moderation von Desinformationen experimentiert. Anstatt auf professionelle FaktencheckerInnen zu setzen, wenden sich einige Plattformen an ihre eigenen NutzerInnen. Das ist eine Form des Crowdsourcings, die verspricht, den Moderationsprozess zu demokratisieren. Die zugrunde liegende Logik ist einfach: Wenn genügend Menschen mit unterschiedlichen Perspektiven einen Inhalt bewerten, sollte sich ihr kollektives Urteil dem annähern, was “wahr” ist.

X war die erste Plattform, die dieses Prinzip im großen Maßstab umsetzte. 2021 wurde Birdwatch gestartet und später in “Community Notes” (CNs) umbenannt, um NutzerInnen die Möglichkeit zu geben, irreführende Beiträge gemeinsam zu kennzeichnen. Inzwischen ist diese Funktion zentral für Xs Strategie zur Bekämpfung von Desinformation geworden. Selbst Meta kündigte Anfang 2025 an, sein traditionelles Faktencheck-Programm einzustellen und stattdessen das CN-Modell zu übernehmen.

Doch wie gut funktioniert diese Form der gemeinschaftsbasierten Moderation tatsächlich? Macht kollektive Beteiligung Desinformationen leichter erkennbar oder reproduziert sie lediglich die gleichen Asymmetrien und Verzögerungen wie herkömmliche Systeme?

Eine neue, große Studie mit dem Titel Timeliness, Consensus, and Composition of the Crowd: Community Notes on X von Olesya Razuvayevskaya et al. liefert erstmals quantitative Antworten genau auf diese Fragen. Die Forschenden untersuchten anhand von 1,8 Millionen zwischen 2023 und 2025 veröffentlichten Community Notes drei zentrale Dimensionen, die die Wirksamkeit solcher Systeme bestimmen. (1) Wer beteiligt sich? (2) Wie entsteht Konsens? (3) Und wie schnell läuft der Prozess ab?

Die traditionelle Faktenprüfung stand schon immer vor zwei großen Herausforderungen: Skalierbarkeit und Bias. Aussagen über Sprachen, Regionen und sich schnell verändernde Kontexte hinweg zu verifizieren war auch arbeitsintensiv und teuer. Zudem werden FaktencheckerInnen oft beschuldigt, parteiisch oder zensierend zu agieren, insbesondere, wenn ihre Bewertungen als politisch motiviert wahrgenommen werden.

Crowdsourcing sollte beide Probleme lösen. Anstelle eines kleinen Expertenteams, das festlegt, was als Desinformation gilt, könnten Tausende NutzerInnen ihre Einschätzungen beitragen. In der Theorie sollten sich unterschiedliche Meinungen gegenseitig ausgleichen. Community Notes basiert auf genau diesem Prinzip. Jede Person, die die Plattform seit mindestens sechs Monaten nutzt und ihre Telefonnummer verifiziert hat, kann Mitwirkende*r werden. Neue MitgliederInnen bewerten zunächst vorhandene Notes, bevor sie das Recht erhalten, eigene zu schreiben. Jede Note kann anschließend von anderen als hilfreich oder nicht hilfreich bewertet werden. Nur Notes, die als hilfreich gelten und eine „Vielfalt von Perspektiven“ widerspiegeln, werden öffentlich unter dem Beitrag angezeigt. „Vielfalt“ wird von X algorithmisch definiert: Das System berücksichtigt weder politische Orientierung noch Herkunft oder Identität, sondern leitet Diversität statistisch ab, also anhand von Mustern in den bisherigen Bewertungen.

Die Forschenden konzentrierten sich auf drei miteinander verknüpfte Fragen.

  1. Wer schreibt die Notes? - Spiegelt die „Crowd“ tatsächlich eine breite NutzerInnenbasis wider oder stammt der Großteil der Arbeit von einer kleinen Kerngruppe?

  2. Kann sich die Crowd einigen? Wie oft erreichen die Mitwirkenden einen Konsens darüber, ob ein Beitrag irreführend ist, und wie oft widersprechen sie sich?

  3. Spielt Geschwindigkeit eine Rolle? Sind schnelle Notes erfolgreicher und wie schnell kann das System auf neue Desinformationen reagieren?

Die Ergebnisse dieser Analysen beleuchten jeweils unterschiedliche Schwächen des Crowdsourcing-Modells.


Teilhabe: Eine demokratische Idee, eine ungleiche Realität


Das erste Ergebnis betrifft die ungleichmäßige Beteiligung. Obwohl Community Notes theoretisch allen zugänglich ist, konzentriert sich die Aktivität auf wenige NutzerInnen. Laut Studie verfassten die zehn Prozent aktivsten NutzerInnen 58 Prozent aller Notes, während die große Mehrheit kaum aktiv war. Mit anderen Worten: Die vermeintliche „Crowd“ besteht in der Praxis aus einer kleinen, hochaktiven “Elite”. Dies kann kurzfristig schon effizient sein, da erfahrene Mitwirkende wissen, wie man Notes schreibt, die den Plattformkriterien entsprechen, doch sie reduziert die Vielfalt der Perspektiven. D.h. wenn diese Personen ähnliche Denkweisen teilen, wird die „kollektive Weisheit“ schnell zum Echoraum.

Interessanterweise hat die Ungleichheit im Laufe der Zeit leicht abgenommen. Mit der globalen Ausweitung der Funktion kamen neue Teilnehmende hinzu, wodurch die Beiträge gleichmäßiger verteilt wurden. Dennoch bleibt die Asymmetrie deutlich bestehen: Eine kleine Gruppe besitzt weiterhin unverhältnismäßig viel Macht darüber, welche Informationen als irreführend gelten.


Konsens oder Dissens?


Die Studie zeigt noch eine grundlegendere Schwäche vom Crowdsourcing: Die Crowd ist sich meist uneinig.

Laut der Studie enthalten rund 69 Prozent der Beiträge widersprüchliche Notes, das heißt, es gibt unterschiedliche Einschätzungen darüber, ob ein Beitrag irreführend ist. Nur etwa elf Prozent aller Notes erreichen überhaupt eine vollständige Einigung und werden als hilfreich angezeigt. Der Rest bleibt im Zwischenstand mit dem Hinweis „needs more ratings“. Ein wesentlicher Faktor für diese Uneinigkeit ist das sogenannte “Note Not Needed”-Phänomen (NNN). Mitwirkende können einen Beitrag als Meinungsäußerung statt als Faktenbehauptung markieren, um anzuzeigen, dass keine Korrektur nötig ist. Paradoxerweise schreiben viele trotzdem eine Note darunter, oft, um zu argumentieren, dass der Beitrag eben doch korrigiert werden sollte. So verwandelt sich die Plattform in eine Debattierarena statt in ein Moderationstool.

Die Frage der ZeitHäufig wird Crowdsourcing als schneller als professionelle Faktenprüfung dargestellt. Doch die Daten zeichnen ein anderes Bild: Im Durchschnitt erscheint eine hilfreiche Community-Note 66 Stunden nach dem ursprünglichen Beitrag, also fast drei Tage später. Notes, die sich später als nicht hilfreich herausstellen, brauchen im Schnitt sogar 94 Stunden. Damit liegt die Reaktionszeit auf dem Niveau professioneller FaktencheckerInnen, die meist innerhalb von drei bis vier Tagen veröffentlichen.

Diese Verzögerung untergräbt eines der Hauptargumente für gemeinschaftsbasierte Moderation, nämlich die angebliche Schnelligkeit. Wenn eine Note geschrieben, bewertet und freigegeben wird, hat ein irreführender Beitrag seine größte Reichweite oft längst erreicht. Wie die AutorInnen feststellen, fungieren Community Notes daher eher als nachträgliche Korrektur denn als präventive Maßnahme. Gleichzeitig zeigt die Studie: Je schneller eine Note veröffentlicht wird, desto größer ist ihre Erfolgschance.

Insgesamt stellen die Ergebnisse das verbreitete Bild der „Crowd“ als kollektive Intelligenz infrage. In der Praxis funktioniert Community Notes weniger als demokratische Deliberation und mehr als algorithmische Hierarchie.


Was das System verbessern könnte


Die AutorInnen schlagen mehrere Ansätze vor, um die gemeinschaftsbasierte Moderation wirksamer und demokratischer zu gestalten:

  • Faktenkommentare von Debatten trennen. Umstrittene Interpretationen sollten diskutiert werden können, ohne die Moderation selbst zu beeinflussen.

  • Breitere Beteiligung fördern. Gelegentliche Mitwirkende und NeueinsteigerInnen sollten gezielt ermutigt werden, um die Abhängigkeit von einer aktiven Elite zu verringern.

  • Anstatt alle Bewertungen gleich zu zählen, sollte Vielfalt anhand der Qualität und Bandbreite früherer Beiträge bewertet werden.

  • Es sollte mehr Transparenz geschaffen werden. Mitwirkende sollten besser verstehen, warum ihre Beiträge als hilfreich oder nicht hilfreich eingestuft wurden, das fördert das Lernen.

Solche Anpassungen könnten das System weniger anfällig für Polarisierung machen und seine Reaktionsfähigkeit auf Desinformationen verbessern.


Jenseits von X: Ein Blick in die Zukunft der Moderation


Da immer mehr Plattformen auf gemeinschaftsbasierte Modelle setzen. gewinnen die Erkenntnisse aus Community Notes zunehmend an Bedeutung. Crowdsourcing kann Teil der Lösung sein, ersetzt jedoch nicht den Bedarf an Deliberation, Kontext und Rechenschaftspflicht.

Xs Community Notes in ihrer heutigen Form zeigen, dass der technologische Optimismus in die „Weisheit der Vielen“ durch die empirische Realität gebremst wird. Vielfalt und Konsens lassen sich nicht einfach berechnen, sondern müssen durch Dialog und strukturelle Fairness entstehen. Das Fazit der Studie ist daher weniger ein Urteil des Scheiterns als ein Plädoyer für Realismus. Community Notes ist ein bemerkenswertes soziales Experiment: ein Versuch, Moderation von einer Aufgabe für ExpertInnen in einen partizipativen, algorithmisch gesteuerten Prozess zu verwandeln. Doch seine Wirksamkeit im Umgang mit Desinformationen hängt nicht von Skalierung oder Automatisierung ab, sondern davon, ob es gelingt, trotz Meinungsunterschieden echte Zusammenarbeit zu fördern. Bis dahin bleibt das Versprechen der “crowdgesourcten Wahrheit” bestenfalls ein Projekt im Werden.

Kommentare


Digitaler_Ungehorsam_Logo_Schriftzug.png

Gesellschaft für digitalen Ungehorsam mbH

Schivelbeiner Straße 8

10439 Berlin

Tel:  030 - 21 46 50 80

Fax: 030 - 69 08 81 01

SOCIAL
  • Schwarz LinkedIn Icon
  • Instagram
bottom of page