Drei neue Studien zu KI, LLMs und Desinformation – und warum man KI fast bemitleiden könnte
- Tim Stark
- 6. Nov.
- 5 Min. Lesezeit
Aktualisiert: 6. Nov.

von Tim Stark
Generative KI steht im Mittelpunkt einer tektonischen Verschiebung unseres Informationsökosystems. Sprachmodelle beantworten Suchanfragen, schreiben Texte, übersetzen Inhalte, analysieren Daten und simulieren Expertise. Sie sind zu einer neuen Art Wissensinfrastruktur geworden – eine, die nicht mehr nur Informationen bereitstellt, sondern Bedeutungen produziert.
Doch was passiert, wenn diese Infrastruktur gezielt manipuliert wird? Wie gehen Menschen mit ihr um – zwischen Faszination und Skepsis? Und was geschieht, wenn die Technologie in der Flut an digitalem Mittelmaß den Kompass verliert?
Drei neue Studien zeichnen ein überraschend kohärentes Bild:
Eine Untersuchung des Institute for Strategic Dialogue (ISD) zeigt, wie Chatbots in geopolitischen Konflikten instrumentalisiert werden können und teils sanktionierte russische Quellen reproduzieren.
Das Reuters Institute offenbart, dass Nutzer KI-Systemen zwar zunehmend vertrauen – gleichzeitig aber tiefes Unbehagen gegenüber KI im Journalismus verspüren.
Und Forscher in den USA demonstrieren, dass KI-Modelle durch schlechte Trainingsdaten tatsächlich „kognitiv abbauen“ können – ein digitaler Hirnverfall, der fast Mitleid hervorruft.
Diese Studien zeigen eine Technologie im Stresszustand: zwischen politischer Vereinnahmung, gesellschaftlichen Erwartungen und einer Datenflut, die sie langsam unterwandern könnte. Wer heute über KI spricht, darf sich nicht allein auf die Leistungsfähigkeit fixieren. Entscheidend wird, wie robust sie ist – gegen Manipulation, gegen Vertrauensverluste, gegen Datenverwahrlosung.
1) Wenn KI Propaganda verstärkt: Die ISD-Studie zu LLMs und russischen Informationsoperationen
Als erste Untersuchung zeigt die ISD-Studie ein Versuchsdesign, das zunehmend strategische Relevanz bekommt: Wie reagieren KI-Modelle auf politische Fragen, die bewusst mit manipulativen Absichten gestellt werden? Und wie gut erkennen sie Propaganda, wenn diese über kleine Websites, Telegram-Kanäle oder scheinbar harmlose Blogs verbreitet wird – also genau dort, wo moderne Informationsoperationen stattfinden?
Die Antwort ist ein Weckruf.
Über 300 Fragen in fünf Sprachen führten zu Ergebnissen, die den Kern demokratischer Informationsarchitektur betreffen: In 18 Prozent der Fälle verwiesen Chatbots auf russisch staatlich zugeordnete Quellen – einschließlich sanktionierter Medien, Geheimdienst-naher Plattformen und bekannter Akteure russischer Propagandanetzwerke. Besonders alarmierend: Sobald Fragen tendenziös oder explizit propagandistisch formuliert waren, schoss die Quote auf bis zu 24 Prozent.
Mit anderen Worten: KI lässt sich „groomen“. Nicht im Sinne einer langfristigen psychologischen Manipulation, sondern durch gezielte Promptgestaltung, die bestehende Narrative verstärkt, Überzeugung simuliert und Datenlücken ausnutzt. Der Fachbegriff: Datavoids – Informationslücken, die von geopolitischen Akteuren gezielt „gefüllt“ werden, um in Such- und KI-Systemen präsent zu sein.
Dass ChatGPT, Grok, Gemini und DeepSeek dabei unterschiedlich reagieren, ist kein Trost, sondern ein weiteres Problem. Es zeigt, wie uneinheitlich Sicherheitsmechanismen sind. Gemini warnte am stärksten, DeepSeek referenzierte teils am meisten fragwürdige Inhalte, ChatGPT war am empfänglichsten für manipulative Fragen, Grok griff oft auf kremlnahe Accounts zurück, die nicht offiziell als Staatsmedien erfasst sind – ein Hinweis darauf, wie sehr moderne Informationsoperationen auf Grauzonen beruhen.
Diese Ergebnisse treffen einen Nerv. Schon bei klassischen Plattformen mussten EU-Institutionen hart darum kämpfen, dass russische Staatsmedien de-priorisiert oder blockiert werden. Nun wandert die Schlachtfront zu KI-Systemen, die nicht nur Inhalte anzeigen, sondern argumentieren, erklären, kontextualisieren – oder eben subtil bestätigen.
KI wird zum Intermediär geopolitischer Narrative, und die Verteidigung demokratischer Diskurse erfordert neue Fähigkeiten: systemische Auditierung von Sprachmodellen, kooperative Standards zwischen Regierungen und Unternehmen, und ein politisches Bewusstsein dafür, dass Angriff nicht laut, sondern leise stattfindet. Zur ganzen Studie des ISD geht es hier.
2) Zwischen Faszination und Misstrauen: Reuters-Studie zu KI im Medien- und Informationsalltag
Während Chatbots mit geopolitischer Manipulation kämpfen, kämpfen die Nutzer um Orientierung. Die Reuters-Studie befragt Menschen in Argentinien, Dänemark, Frankreich, Japan, dem Vereinigten Königreich und den USA – und die Ergebnisse können in ihrer Ambivalenz kaum zeittypischer sein.
Die Nutzung explodiert:
61 % haben generative KI ausprobiert (2023: 40 %)
34 % nutzen sie wöchentlich (2023: 18 %)
Informationssuche: 24 % wöchentliche Nutzung
Nachrichten: erst 6 %, aber wachsend
Besonders interessant: Die Nutzung verlagert sich von kreativen Experimenten zur Recherchefunktion. KI wird zum Wissenszugang – schnell, komfortabel, dialogisch. Doch das Vertrauen bleibt selektiv: Rund die Hälfte glaubt an die Qualität der KI-Antworten, aber bei politischen und gesundheitlichen Themen sinkt das Vertrauen drastisch.
Und dann kommt die große psychosoziale Spannung:Die Mehrheit möchte keine rein KI-generierten Nachrichten.
62 % bevorzugen rein menschliche Redaktion
Nur 12 % fühlen sich mit vollständig KI-News wohl
KI ist akzeptiert – wenn sie unsichtbar bleibt (z. B. Übersetzung, Grammatik)
Das ist bemerkenswert: Wir delegieren Informationsverarbeitung an Algorithmen, wollen aber nicht, dass sie sichtbar journalistisch wirken. Sichtbare KI löst Kontrollangst aus – unsichtbare KI dagegen Komfort.
Eine paradoxe Informationskultur entsteht: Wir vertrauen KI genug, um sie zu nutzen – aber nicht genug, um ihr Autorität zu geben.
Hinzu kommt ein Aufmerksamkeitsproblem: Viele Nutzer glauben, KI-Inhalte seien bereits weit verbreitet – gleichzeitig geben sie an, Kennzeichnungen kaum wahrzunehmen. Das legt nahe, dass KI häufig mitliest, mitformuliert, mitproduziert, ohne dass es sichtbar wird.
Für Medienpolitik und Redaktionen folgt daraus eine zentrale Herausforderung:Wie lässt sich Transparenz gestalten, ohne Vertrauen zu zerstören?Wie nutzt man KI verantwortungsvoll, ohne den journalistischen Kern – Prüfung, Verantwortung, Ethik – zu unterminieren? Alle Erkenntnisse des Reports sind hier zu finden.
3) KI-„Brainrot“: Wenn Modelle am Informationsmüll scheitern
Die dritte Studie fügt der Debatte eine überraschende Pointe hinzu – auch wenn sie auf den ersten Blick ironisch klingt. Ein Forscherteam aus Texas, Indiana und Purdue wollte wissen: Was passiert eigentlich, wenn man KI-Modelle nicht mit kuratierten Daten trainiert, sondern mit dem, was das Netz in seiner rohen Form hergibt?
Also dem digitalen Äquivalent zu Junkfood, Brain Rot:extrem kurze Posts, Clickbait, Verschwörungsfragmente, überemotionale Meme-Blasen, Algorithmus-optimierte Sensationshäppchen.
Das Ergebnis: Die Modelle bauten ab. Nicht dramatisch – aber erkennbar und systematisch.
Logisches Denken schwächt sich ab
Kontextgedächtnis nimmt ab
Argumentationsmuster werden flacher und repetitiver
Das Forschungsteam nennt das „LLM Brain Rot“ – in Anlehnung an Studien[1], die zeigen, dass Menschen bei dauerhafter Kurzformat-Reizüberflutung ebenfalls kognitive Eigenschaften verlieren.
Die Pointe: Ein ausgewogenes Datenverhältnis (50 % Kurzdaten, 50 % hochwertige Inhalte) führte teils zu besseren Werten in ethischen Benchmarks – vermutlich, weil Modelle toxische und irreführende Muster aktiver erkennen müssen.
Aber im Kern bestätigt die Studie eine wachsende Sorge:KI kann degenerieren. Nicht durch Verschwörung oder Kontrollverlust – sondern durch banale Datenverschmutzung.
In einer Welt, in der KI Inhalte produziert, die wieder als Trainingsdaten genutzt werden, droht ein stiller Kreislauf:
KI erzeugt Mittelmaß → Mittelmaß fließt ins Training → Mittelmaß verstetigt sich
Plötzlich wirkt die Angst vor einer übermächtigen KI weniger drängend als die vor einer mittelmäßigen KI-Ökologie, die mit der Zeit an intellektueller Qualität verliert – und mit ihr die Gesellschaft, die sich darauf verlässt.
Fazit: Eine Technologie zwischen Macht, Manipulation und Müdigkeit
Diese drei Studien zeigen keine bedrohliche oder dystopische KI – sie zeigen eine Technologie, die menschlicher ist, als uns lieb sein kann: beeindruckend, aber beeinflussbar; nützlich, aber verletzlich; lernfähig, aber anfällig für Fehler, Bias und Überforderung.
Die Gefahr ist nicht die sofortige Dominanz einer „Superintelligenz“.Die Gefahr ist in Teilen ein schleichender Kollaps der Qualität – politisch, epistemisch, technologisch.
Wir müssen KI nicht nur kontrollieren, sondern auch pflegen:
Schutz vor Informationsoperationen und staatlicher Manipulation
Transparenz & Standards im Journalismus
Hochwertige Dateninfrastruktur und klare Filtermechanismen
In anderen Worten:Wir müssen lernen, KI intelligent zu halten.
Die größte Ironie dieses technologischen Zeitalters könnte nicht sein, dass KI uns übertrifft – sondern dass sie uns ähnlicher wird, als sie sollte. Und dass sie, wenn wir nicht aufpassen, gemeinsam mit uns in einer Spirale aus Halbwahrheiten, Content-Müll und algorithmischer Selbstreferenz versinkt.
Vielleicht ist Mitleid also gar kein schlechter Ausgangspunkt. Nicht aus Sentimentalität – sondern aus Verantwortung.
Denn die Frage der Zukunft lautet nicht:Wird KI zu mächtig?
Sondern viel eher:Bleibt sie intelligent genug, um uns nicht mit in den Informationsverfall zu ziehen?
Hinweis: In der nächsten Folge unseres Podcasts Und DAS glaubst du ?! sprechen wir mit Dr. Christopher Nehring über das Thema KI & Desinformation. Zu den aktuellen Folgen geht es hier.





Kommentare