top of page

„Polexit“ als Gegenstand KI-gestützter Desinformation: Der TikTok-Fall Prawilne_Polki

Bildquelle: Shutterstock.com
Bildquelle: Shutterstock.com

„We would miss you“ war der Slogan einer Online-„Remain-Kampagne“, welche die Brit:innen 2016 von einem Verbleib innerhalb der EU überzeugen sollte und primär auf sozialen Netzwerken wahrgenommen wurde. Wie man weiß, kam es anders und bis heute tönen populistische Wahlversprechen innerhalb Europas von einem vergleichbaren Plan für das jeweilige Land und auch die Alternative für Deutschland (AfD) schwadronierte schon von einem „Dexit“.

Aber zuerst soll sich wohl Polen aus dem Staatenbund verabschieden. Zumindest tauchten Ende Dezember 2025 vermehrt TikTok-Videos auf, in denen junge Polinnen für den Austritt ihres Heimatlands aus der Europäischen Union, den sog. „Polexit“, warben.

Besondere Aufmerksamkeit erregte diesbezüglich der TikTok-Account „Prawilne_Polki“, dessen Inhalte nachweislich mithilfe generativer KI erstellt wurden und junge, visuell ansprechende weibliche Avatare zur politischen Meinungsbeeinflussung einsetzten. Die Kampagne adressierte gezielt ein junges Publikum (15–25 Jahre), eine Altersgruppe, für die TikTok inzwischen eine der wichtigsten politischen Informationsquellen darstellt (UCE Research/Onet, 2025).


Inhaltlich reproduzierten die Videos klassische Narrative strategischer Desinformation: die Delegitimierung supranationaler Institutionen, die Betonung nationaler Souveränität, die Emotionalisierung politischer Entscheidungsprozesse sowie die Konstruktion eines diffusen äußeren Zwangs („Herrschaft aus Brüssel“). Exemplarisch äußerten die synthetischen Protagonistinnen Sätze wie: „Ich will den Polexit, weil ich Entscheidungsfreiheit will, auch wenn es teurer wird“ oder „Vielleicht wird es Zeit, dass wir ruhig besprechen, wer eigentlich für uns entscheidet“. Diese Aussagen folgen einem diskursiven Muster, das nicht auf argumentative Tiefe, sondern auf affektive Anschlussfähigkeit und gefühlte Authentizität abzielt. Die verwendete Argumentation verzichtet auf empirische Belege und ersetzt diese durch subjektive Empfindungen, nostalgische Imaginationen und ein implizites Misstrauen gegenüber institutioneller Politik.

Technologisch zeichnet sich die Kampagne durch den Einsatz von KI-generierten Gesichtern und synthetischen Stimmen aus, die journalistische oder influencerartige Darstellungsformen imitieren. Laut Aleksandra Wójtowicz vom Polnisches Institut für Internationale Angelegenheiten (PISM) weisen die Videos zwar erkennbare technische Mängel auf (asynchrone Lippenbewegungen, unnatürliche Prosodie), doch zeigen qualitative Forschungsinterviews, dass ein signifikanter Teil der Rezipient:innen diese Künstlichkeit nicht wahrnimmt. Dies unterstreicht ein zentrales Problem gegenwärtiger Desinformation: ihre Wirksamkeit beruht weniger auf technischer Perfektion als auf kognitiven Heuristiken und medialer Routine. Damit verschiebt sich das klassische Verständnis von Medienmanipulation: Nicht die perfekte Illusion steht im Vordergrund, sondern die ausreichend glaubwürdige Simulation sozialer Nähe. Die KI fungiert hier als Skalierungsinstrument politischer Kommunikation, das menschliche Influencer ersetzt oder ergänzt.

Bemerkenswert ist dabei die strategische Übernahme eines bereits existierenden TikTok-Kontos, das zuvor unpolitische Inhalte verbreitet hatte und über eine etablierte Abonnentenbasis verfügte. Diese Vorgehensweise ermöglichte eine sofortige Reichweite und verdeutlicht die Professionalität und Zielgerichtetheit der Kampagne.


Ein weiteres zentrales Merkmal ist der sogenannte „Hydra-Effekt“ digitaler Manipulation: Die Löschung einzelner Profile führt nicht zur nachhaltigen Eindämmung der Kampagnen, sondern begünstigt deren Fragmentierung und Replikation. Der Fall „Prawilne_Polki“ illustriert dies exemplarisch, da der Account offenbar auf einem zuvor unpolitischen, bereits etablierten TikTok-Konto aufsetzte und so bestehende Reichweitenstrukturen ausnutzte (Kontakt24.pl).

Ideologisch und strategisch ordnen Expert:innen die Kampagne in ein größeres Ökosystem pro-russischer Einflussoperationen ein. Hinweise liefern unter anderem syntaktische Auffälligkeiten in den Texten sowie thematische Überschneidungen mit bekannten Desinformationsnarrativen, etwa der Behauptung manipulierter Wahlen oder der Kriminalisierung ukrainischer Geflüchteter. Die bewusste Wahl weiblicher Avatare wird dabei als Teil einer rechtsextremen Mobilisierungsstrategie interpretiert, die junge Frauen sowohl als Zielgruppe als auch als vermeintlich glaubwürdige Trägerinnen nationalistischer Botschaften instrumentalisiert – ein Phänomen, das an internationale Trends wie die „Tradwife“-Bewegung anschließt. Die Darstellung der Avatare erzeugt Vertrauen, Normalität und emotionale Anschlussfähigkeit – Faktoren, die für die Wirksamkeit von Desinformation entscheidend sind. Frühere Wahlkämpfe in Polen belegen, dass diese Gruppe erheblichen Einfluss auf politische Mobilisierung entfalten kann.


Die politische Relevanz dieser Desinformation wird durch empirische Daten unterstrichen: Umfragen von United Surveys (Wirtualna Polska, Dezember 2025) und Le Grand Continent zeigen, dass etwa ein Viertel der polnischen Bevölkerung einen EU-Austritt befürwortet. Gleichzeitig generierte „Prawilne_Polki“ innerhalb von zwei Wochen rund 200.000 Aufrufe und eine außergewöhnlich hohe Interaktionsrate – ein Indikator für algorithmische Verstärkung, selbst bei möglicher künstlicher Engagement-Erzeugung.

Auf institutioneller Ebene hat der Fall regulatorische Konsequenzen. Die EU-Kommission leitete im Rahmen des Digital Services Act (DSA) ein Verfahren gegen TikTok ein, um zu prüfen, ob die Plattform ihren Verpflichtungen zur Eindämmung systemischer Risiken – insbesondere im Kontext von KI-generierten politischen Inhalten – nachgekommen ist (Politico Europe, 2025). Angesichts zahlreicher anstehender Wahlen in EU-Mitgliedstaaten im Jahr 2026 wird der Umgang mit automatisierter Desinformation zu einem Lackmustest für die Wirksamkeit europäischer Digitalregulierung und für den angekündigten „Europäischen Demokratieschild“.


Mehrere Indikatoren legen also nahe, dass die Kampagne in ein Netzwerk pro-russischer Desinformationsaktivitäten eingebettet ist. Dazu zählen sprachliche Auffälligkeiten in der Syntax, die Nähe zu bekannten russischen Narrativen sowie thematische Überschneidungen mit anderen KI-gestützten Inhalten, in denen etwa Wahlmanipulation behauptet oder ukrainische Geflüchtete kriminalisiert werden.

Der oben von Wójtowicz beschriebene „Hydra-Effekt“, also die schnelle Reproduktion neuer Profile nach Löschung bestehender Accounts, verweist auf eine langfristige Strategie digitaler Einflussnahme, die nicht auf einzelne Akteure, sondern auf systemische Resilienz angelegt ist.

Der erwähnte TikTok-Account wurde mittlerweile gelöscht, doch es ist anzunehmen, dass die pro-russische Desinformation für junge Menschen weiterläuft. Der Fall „Prawilne_Polki“ verdeutlicht nur, dass zeitgenössische Desinformation nicht mehr primär als Randphänomen extremistischer Milieus zu begreifen ist, sondern als hochgradig professionalisierte, technologisch vermittelte Praxis politischer Einflussnahme. Die Kombination aus generativer KI, emotionaler Zielgruppenansprache und algorithmischer Verstärkung stellt demokratische Öffentlichkeiten vor neue Herausforderungen. Effektive Gegenstrategien erfordern daher nicht nur regulatorische Eingriffe, sondern auch eine Stärkung medialer Kompetenz und institutioneller Resilienz gegenüber synthetischer politischer Kommunikation. Und mit Sicherheit würden wir auch Polen innerhalb der EU sehr vermissen.


Kommentare


Digitaler_Ungehorsam_Logo_Schriftzug.png

Gesellschaft für digitalen Ungehorsam mbH

Schivelbeiner Straße 8

10439 Berlin

Tel:  030 - 21 46 50 80

Fax: 030 - 69 08 81 01

SOCIAL
  • Schwarz LinkedIn Icon
  • Instagram
bottom of page