„Hey ChatGPT, mache meine Propaganda auch in anderen Teilen der Welt verständlich“ – Untersuchung zeigt KI-gestützte Übersetzungen und Verschleierung pro-chinesischer Narrative
- Tim Stark
- 10. Sept.
- 2 Min. Lesezeit
Aktualisiert: 7. Nov.

Der neue Report „Falsos Amigos“ von Margot Fulde-Hardy via Graphika deckt ein Netzwerk aus elf Domains und 16 Social-Media-Accounts auf, das gezielt Inhalte des chinesischen Staatssenders CGTN übernahm und mithilfe von KI-Tools in mehreren Sprachen neu veröffentlichte. Ziel war es offenbar, die Herkunft der Artikel zu verschleiern und pro-chinesische, antiwestliche Narrative international zu verbreiten.
Nutzung von KI für Informations-„Laundering“
Laut Graphika übersetzte und kürzte das Netzwerk englischsprachige Originalartikel von CGTN automatisiert ins Französische, Spanische, Vietnamesische und Englische. Neben Übersetzungen wurden auch auffällig stilisierte KI-Zusammenfassungen genutzt, die oft mit übertrieben blumiger Sprache („In a dazzling display…“) oder Emojis versehen waren – typische Muster von Large Language Models (LLMs).
Darüber hinaus griffen die Akteure auf KI-generierte Logos und Profilbilder zurück. Im Quellcode einiger Seiten fanden sich sogar direkte Verweise auf das Bildgenerierungstool DALL·E.
Infrastruktur und Herkunft
Die Domains wurden fast ausschließlich im Dezember 2024 und März 2025 registriert – alle über den chinesischen Anbieter Alibaba Cloud / HiChina. Mehrere Facebook-Seiten des Netzwerks wiesen Administratoren in China aus. Zudem war eine der Domains auf eine staatseigene Firma registriert, die von CCTV und CGTN gemeinsam gegründet wurde. Graphika bewertet es daher als sehr wahrscheinlich, dass die Betreiber in China sitzen.
Verbreitung in sozialen Medien
Das Netzwerk nutzte Facebook, Instagram, Mastodon, Threads und X. Dort traten die Accounts als vermeintlich unabhängige Nachrichtenquellen auf, etwa unter den Namen News Amigo oder KhabarAsia. Einige Facebook-Seiten schalteten Werbeanzeigen, um Reichweite zu erzeugen.
Trotz dieser Bemühungen blieben die Interaktionen gering: Viele Posts erhielten kaum Likes oder Kommentare. Auf X (ehemals Twitter) tauchten die Inhalte jedoch teilweise in den Top-Suchergebnissen zu China-relevanten Themen auf – neben offiziellen chinesischen Accounts.
Narrative und Zielgruppen
Die veröffentlichten Artikel transportierten vor allem pro-chinesische und antiwestliche Botschaften. Während China als friedlicher, diplomatischer Akteur dargestellt wurde, erschienen die USA in einem negativen Licht – ein bekanntes Muster staatlicher Propaganda.
Besonders bemerkenswert: Die KI-generierten Inhalte zielten offenbar auf junge internationale Zielgruppen ab. Hinweise im Quellcode legen nahe, dass Logos und Texte gezielt für Jugendliche („children aged 8–16“) oder „digitale Nomaden“ gestaltet wurden. Die Inhalte wurden global ausgerichtet und sollten Afrika, Asien, Europa und die Amerikas adressieren.
Bedeutung der Untersuchung
Der „Falsos Amigos“-Report zeigt exemplarisch, wie staatlich gesteuerte Desinformationsnetzwerke KI nutzen, um ihre Reichweite zu erhöhen und ihre Spuren zu verschleiern. Obwohl die Wirkung in diesem Fall bislang begrenzt blieb, offenbart die Untersuchung, dass künstliche Intelligenz die Kosten und Hürden für internationale Einflussoperationen drastisch senkt.
Damit fügt sich der Fall in eine breitere Entwicklung ein, die auch von Organisationen wie Freedom House dokumentiert wird: China investiert massiv in globale Medienstrategien und nutzt dabei zunehmend digitale Technologien, um Narrative zu verbreiten.
Dern kompletten Report von Graphika gibt es hier.





Kommentare