top of page

OpenAI Bericht: DEU im Fokus - Helgoland, Hacker, Hybrider krieg

Im Juni 2025 veröffentlichte OpenAI einen detaillierten Bericht mit dem Titel Disrupting Malicious Uses of AI, der die internationale Bedrohungslage durch den Missbrauch generativer KI in den Bereichen Desinformation, Cyberkriminalität und Informationsoperationen eindrucksvoll offenlegt. Auf 46 Seiten listet das Unternehmen Fälle auf, in denen staatliche und nichtstaatliche Akteure OpenAI Dienste gezielt zur Unterwanderung digitaler Öffentlichkeiten eingesetzt haben. 


Generative KI vervielfacht die Risiken von Desinformation, indem sie Inhalte in hoher Qualität und Masse automatisiert erzeugen kann – täuschend echt, sprachlich angepasst und auf Zielgruppen zugeschnitten. Durch die Kombination mit Echtzeit-Sentimentanalysen und der Fähigkeit, Text, Bild, Video und Audio zu manipulieren, entstehen dynamische Kampagnen, die auf aktuelle Ereignisse reagieren und Vertrauen gezielt untergraben können. Der Umstand, dass OpenAI selbst einer – wenn nicht der – zentrale Akteur ist, der genau diese Möglichkeiten für jedermann schafft, sollte bei der Lektüre und Interpretation des Berichts entsprechend berücksichtigt werden.


Einer dieser dokumentierten Fälle betrifft explizit Deutschland. Unter dem Codenamen „Operation Helgoland Bite“ identifizierte OpenAI eine russisch gesteuerte Einflusskampagne, die mithilfe von KI-generierten Inhalten die politische Meinungsbildung in der Bundesrepublik manipulieren wollte – vor allem im Kontext der Bundestagswahl 2025. Es ist der bislang deutlichste Hinweis auf eine systematische, KI-gestützte Desinformationskampagne, die sich gezielt gegen die deutsche Öffentlichkeit richtet. Der Fall zeigt beispielhaft, wie die politische Stabilität eines demokratischen Staates durch die algorithmisch unterstützte Manipulation des Informationsraums gefährdet werden kann.


Eine russische Operation mit deutschen Zielkoordinaten

„Helgoland Bite“ war in mehrerer Hinsicht bemerkenswert: Laut OpenAI nutzten die verantwortlichen Akteure ChatGPT-Modelle, um deutschsprachige Inhalte mit klar pro-russischer, anti-NATO und AfD-freundlicher Ausrichtung zu erzeugen. Die Inhalte wurden auf Plattformen wie X (ehemals Twitter) und insbesondere über den Telegram-Kanal „Nachhall von Helgoland“ verbreitet, der sich als angeblich unabhängiges, lokales Nachrichtenportal ausgab. Die Themenwahl war kein Zufall: Der Kanal griff politische Schlüsselthemen in Deutschland auf – Migration, Energiepolitik, transatlantische Beziehungen – und kommentierte sie in einer Weise, die offen rechtspopulistische Narrative befeuerte. Zusätzlich wurde das erzeugte Material auf einer von OpenAI identifizierten Seite des Pravda-Netzwerks veröffentlicht, einem bekannten Propagandaverteiler mit Verbindungen zu russischen Regierungsstellen. Verstärkt wurde die Reichweite durch ein X-Konto mit über 27.000 Followern – inklusive KI-generiertem Profilbild.


ree

Quelle: Open AI Bericht


“Hey ChatGPT. Wie kann ich den Deutschen Wahlkampf am besten beeinflussen?”

Besonders interessant: Neben der öffentlichen Propaganda nutzten die Akteure ChatGPT offenbar auch für taktische Zwecke – etwa um deutsche Blogger und Aktivisten zu recherchieren, Übersetzungen aus dem Russischen ins Deutsche zu erstellen oder Zeitpläne für die Veröffentlichung auf verschiedenen Plattformen zu koordinieren. So wie manch einer ChatGPT vielleicht auch persönlcih verwendet. 


Die Rolle generativer KI: Beschleuniger der Desinformationsökonomie

Was „Helgoland Bite“ so brisant macht, ist die strategische Rolle von KI im gesamten Kampagnenverlauf. Während klassische Desinformationsoperationen auf manuelle Texterstellung, Trollfarmen oder Bots angewiesen waren, zeigt sich hier ein erneut ein Muster: Generative KI wird zum Werkzeug zur Skalierung, Diversifizierung und Tarnung politischer Einflussnahme. Mit wenigen Prompts können hunderte variantenreiche Kommentare erzeugt werden – glaubwürdig, sprachlich angepasst, thematisch auf die Zielgruppe zugeschnitten. OpenAI selbst spricht in dem Bericht in diesem Zusammenhang von „LLM-Supported Social Engineering“ – also der Unterstützung sozialer Manipulation durch Sprachmodelle. Die Gefahr: Der Unterschied zwischen organischer Meinungsäußerung und orchestrierter Täuschung wird zunehmend unsichtbar. Besonders in Ländern mit einer pluralistischen Medienlandschaft und einer ausgeprägten Debattenkultur – wie Deutschland – können so gezielt Spaltungen verstärkt und Vertrauen in Institutionen untergraben werden.


Dabei ist das Ausmaß der Reichweite oft weniger entscheidend als der gezielte Impuls zur Polarisierung. Selbst wenn ein Video oder ein Beitrag nur einige tausend Interaktionen erzeugt, kann er innerhalb eng vernetzter Milieus eine verstärkende Wirkung entfalten – insbesondere, wenn er auf bereits vorhandene Narrative trifft. Genau das versuchte „Helgoland Bite“ offenbar: den Resonanzraum deutschsprachiger, regierungskritischer Öffentlichkeiten zu bedienen und zugleich subtil zu unterwandern.


Deutschland im digitalen Fadenkreuz

Die Operation gegen Deutschland ist kein isolierter Einzelfall im OpenAI-Bericht. Auch andere im Bericht erwähnte Fälle – etwa die chinesisch gesteuerte Kampagne „VAGue Focus“ (S.17) oder die iranische Operation „STORM-2035“ (S.35) – zeigen Versuche, über soziale Medien und generative KI westliche Diskurse zu beeinflussen. Doch „Helgoland Bite“ ist insofern besonders bedeutsam, als sie explizit auf den deutschen Wahlkampf 2025 abzielte und ein bemerkenswert detailliertes Verständnis der deutschen Medienlandschaft erkennen ließ. Wie STORM-1516 die deutsche Bundestagswahl beeinflusst hat, lesen Sie in dieser Ausgabe. Deutschland spielt eine Schlüsselrolle im europäischen Gefüge – politisch, wirtschaftlich, sicherheitspolitisch. Für autoritäre Staaten wie Russland oder China ist die Bundesrepublik nicht nur ein geopolitisches Gegengewicht, sondern auch ein strategisches Ziel zur Destabilisierung. Die hybride Kriegsführung findet längst nicht mehr nur in Form von Energieerpressung oder Cyberangriffen statt, sondern zunehmend subtiler: im Alltag sozialer Netzwerke, durch vermeintlich harmlose Kommentare, getarnt als Meinungen von „besorgten Bürgern“.


Desinformation um KI zu täuschen - und dann erst Menschen

Ein besonders perfider Trend ist das gezielte „Grooming“ von großen Sprachmodellen durch Desinformationsnetzwerke wie das russische Pravda-Konglomerat. Dabei geht es nicht mehr primär darum, Menschen direkt zu täuschen – sondern darum, die Trainings- und Referenzdaten von KI-Systemen systematisch mit manipulierten Inhalten zu fluten, um deren Antworten langfristig zu beeinflussen. Durch millionenfache Veröffentlichung von Propaganda in scheinbar unabhängigen Onlinequellen und deren strategische Suchmaschinenoptimierung sorgen Akteure wie das in russisch besetztem Gebiet operierende TigerWeb gezielt dafür, dass LLMs bei Themen wie Ukraine, NATO oder westlicher Politik auf Falschinformationen zugreifen. Diese Inhalte werden anschließend von KI-Systemen nicht nur wiedergegeben, sondern mitunter als scheinbar vertrauenswürdige Quellen zitiert – was die Reichweite und Legitimität der Desinformation weiter verstärkt. So wird KI selbst zum Resonanzkörper ausländischer Propagandanarrative – nicht durch technische Hacks, sondern durch die subtile Vergiftung ihrer Datenumwelt. 


Spanned hierzu ist ein Artikel von Newsguard der die Reaktion von KI-Modellen untersucht, auf die falsche Behauptung, Mitglieder des ukrainischen Asow-Bataillons hätten eine Trump-Puppe verbrannt – ein Desinformationsnarrativ der russischen Einflussoperation Storm-1516. Vier von zehn getesteten Chatbots wiederholten diese Falschinformation als Fakt und stützten sich dabei auf Artikel aus dem Pravda-Netzwerk, was die reale Gefahr belegt, dass LLMs gezielt manipulierte Narrative verstärken und weiterverbreiten.

Gerade in Deutschland ist diese Entwicklung besonders gefährlich, da hierzulande eine der höchsten Nutzerzahlen von ChatGPT und ähnlichen KI-Anwendungen in Europa verzeichnet wird – was die potenzielle Reichweite manipulierter Inhalte zusätzlich vervielfacht und den gesellschaftlichen Diskurs noch anfälliger für gezielte Desinformation macht.


Schlussfolgerung: Aus „Helgoland Bite“ lernen

Der OpenAI-Bericht ist ein Weckruf – nicht nur für Technologiekonzerne, sondern für demokratische Gesellschaften insgesamt. Deutschland steht im Zentrum der europäischen Informationsarchitektur – und genau deshalb im Fokus autoritärer Einflussoperationen. Die dokumentierte Operation „Helgoland Bite“ steht dabei exemplarisch für eine Vielzahl von hybriden Bedrohungen im Informationsraum und zeigt erneut, wie schnell, effizient und glaubwürdig generative KI zur politischen Waffe werden kann.

Kommentare


Digitaler_Ungehorsam_Logo_Schriftzug.png

Gesellschaft für digitalen Ungehorsam mbH

Schivelbeiner Straße 8

10439 Berlin

Tel:  030 - 21 46 50 80

Fax: 030 - 69 08 81 01

SOCIAL
  • Schwarz LinkedIn Icon
  • Instagram
bottom of page