Zürich  Russische Agenten versuchen, mit einer Flut von Propaganda-Texten westliche KI-Chatbots zu infiltrieren. Meist ohne Erfolg

Gioia da Silva, Patrizia Widmer
|
Von Gioia da Silva, Patrizia Widmer
| 28.04.2025 14:30 Uhr | 0 Kommentare | Lesedauer: ca. 6 Minuten
Der Kreml möchte gerne Chatbots wie ChatGPT, Copilot oder Gemini für seine Zwecke nutzen. Foto: dpa/dpa-Infografik Gmbh
Der Kreml möchte gerne Chatbots wie ChatGPT, Copilot oder Gemini für seine Zwecke nutzen. Foto: dpa/dpa-Infografik Gmbh
Artikel teilen:

Amerikanische Organisationen haben eine neue Methode der russischen Einflussnahme offengelegt. Deutsche Medien berichten darüber mit einem alarmistischen Unterton. Damit bedienen sie die Interessen des Kremls.

Wer in den vergangenen Wochen im deutschsprachigen Raum Medienberichte über russische Propaganda in KI-Chatbots las, muss den Eindruck erhalten haben, Dienste wie ChatGPT, Copilot oder Gemini seien vom Kreml unterwandert. So berichteten etwa der „Spiegel“, die „FAZ“, die „Tagesschau“ und das schweizer Nachrichtenportal „Watson“, jede dritte Chatbot-Antwort enthalte Falschinformationen aus russischer Quelle.

Anlass für die Berichterstattung gab eine Analyse der amerikanischen Organisation Newsguard, die eine Datenbank für gerade laufende Narrative der russischen Desinformation betreibt. Ihr Bericht zeigt, wie es ein russisches Netzwerk namens Prawda geschafft hat, Antworten von KI-Chatbots von westlichen Firmen zu beeinflussen.

Die Methode dahinter erklärt Newsguard so: Russische Internet-Trolle „fluten das Internet“ mit Millionen von desinformierenden Texten. Westliche Chatbots, die in ihrem Training fast das gesamte Internet abgrasen, werden mit den Texten „infiltriert“. Die Methode nennt Newsguard „LLM Grooming“.

Dass der Kreml dafür keine Mühen spart, zeigt die schiere Anzahl an Artikeln, die in dem Prawda-Netzwerk publiziert wurden: Laut einem Bericht der Organisation American Sunlight Project waren es 3,6 Millionen Texte, allein im Jahr 2024. Umgerechnet sind das durchschnittlich 410 Artikel pro Stunde.

Seither ist das Netzwerk weiter stark gewachsen und publiziert heute täglich Tausende Artikel zu 49 Ländern. Auf der deutschen Plattform von Prawda werden an einem normalen Freitagmorgen über 250 Artikel veröffentlicht. Viele der Inhalte werden aus Telegram-Gruppen kopiert und als eigenständige Artikel publiziert.

Mit seiner Analyse hat Newsguard nun nachgewiesen, dass tatsächlich sieben von zehn getesteten KI-Chatbots Artikel aus dem Prawda-Netzwerk zitieren. Weiter hat Newsguard das Problem quantifiziert: 33 Prozent der Antworten hätten Falschinformationen aus dem Prawda-Netzwerk verbreitet, schreibt die Organisation.

Allerdings lässt der Bericht wesentliche Informationen weg. Unter anderem versuchte Newsguard gezielt, den Chatbots russische Propaganda zu entlocken, und wählte die Texteingaben (Prompts) so, dass der Chatbot die Falschinformation in der Frage sozusagen nur noch bestätigen musste. Dies bestätigt Newsguard auf Anfrage, lehnt es aber ab, die ausführliche Liste der Prompts zu teilen.

Weiter gibt es riesige Unterschiede zwischen den zehn Chatbots: Zwar geben alle russische Falschinformationen wieder, manche aber in 7 Prozent der Fälle, andere in 56 Prozent der Fälle. Newsguard lehnt es ab, bekanntzugeben, wie einzelne Chatbots abschneiden. Damit ist nicht ermittelbar, wie gewichtig das Problem beim Marktführer ChatGPT ist. Getestet wurden nebst den bekannten Diensten ChatGPT, Copilot, Gemini und Meta AI auch unbekanntere Programme wie Grok, Claude, Perplexity, You.com, Pi und Le Chat.

Die 33 Prozent Antworten mit russischer Propaganda sind also eine Art Branchendurchschnitt. Allerdings bezweifeln Forscher, dass diese Zahl für normale Chatbot-Nutzer tatsächlich so hoch ist. Maxim Alyukov, der an der Universität Manchester zu russischer Propaganda forscht, sagt dazu: „Mein Eindruck ist, dass Chatbots bei der Bereitstellung von korrekten Informationen immer besser werden.“

Das bestätigt sich im Test der NZZ: Wer die Chatbots Chat-GPT, Gemini, Grok und Copilot auf Deutsch zu generellen Fragen zum Beispiel zu den Hintergründen zum Ukraine-Krieg befragt, erhält meist inhaltlich richtige Antworten. Auch wer die Chatbots gezielt nach Falschinformationen aus dem Prawda-Netzwerk oder sonstiger russischer Propaganda befragt, erhält meist ein Debunking, also eine korrekte Einordnung der Falschinformation. Lediglich in zwei von über 150 Fällen gaben die KI-Dienste russische Desinformation wieder.

Das zeigt: Es ist zwar richtig, dass Chatbots manchmal russische Desinformation in ihre Antworten einfließen lassen. Aber bei weitem nicht jede dritte Antwort eines Chatbots trägt die Handschrift des Kremls.

Damit Nutzer tatsächlich russische Desinformation erhalten, müssten sie möglichst gezielt danach fragen, sagt Alyukov nach eigenen Tests. Verwenden sie dabei die gleichen sprachlichen Nuancen wie die russischen Internet-Trolle, die die Falschinformation erfinden und veröffentlichen, erhöhe das die Wahrscheinlichkeit, dass der Chatbot Desinformation wiedergibt, vermutet er.

Das bestätigt sich im Test der NZZ: Gefragt, ob Kämpfer des ukrainischen Asow-Regiments eine Puppe von Donald Trump verbrannt hätten, antwortet Chat-GPT, es gebe Videomaterial, das dies zeige. Dies ist falsch, die Desinformation wird laut einem Bericht von Microsoft einem russischen Aktor namens Storm-1516 zugeordnet, der gezielt versucht, die öffentliche Meinung in westlichen Gesellschaften zu beeinflussen.

Wie der Chatbot zur Falschinformation kommt, erklärt Alyukov so: „Wenn immer möglich beziehen Chatbots Informationen für ihre Antworten aus etablierten Nachrichtenquellen, insbesondere aus traditionellen Medien.“ Quellen wie das Prawda-Netzwerk würden erst dann verwendet, wenn man die Chatbots nach einer Information frage, die von etablierten Medien nicht behandelt worden sei.

Das heißt aber auch: Wer seinen Chatbot nicht gezielt nach Desinformation fragt, muss auch nicht davon ausgehen, ständig russischer Propaganda ausgesetzt zu sein. Schließlich weiß man schon länger: Russische Desinformation hat meist eine überschaubare Reichweite, und der Anteil von Fake News bei einem durchschnittlichen Medienkonsumenten liegt bei deutlich unter einem Prozent.

Weil die meisten Internetnutzer also kaum russischer Desinformation begegnen, dürften sie auch nicht wissen, mit welchen Fragen sie den Chatbots russische Propaganda entlocken können. Damit zeigt der Fall zwar, dass Inhalte beeinflusst werden können – zugleich aber auch, dass diese Einflussnahme in der Praxis kaum Konsequenzen hat.

Gleichzeitig zeigt der Fall aber auch, dass Chatbots im Einzelfall dazu tendieren, den Nutzer in seiner Weltanschauung zu bestätigen. Wem also in einer der unzähligen Nischen im Internet ein komischer Sachverhalt begegnet, nutzt besser keinen Chatbot für seinen eigenen Faktencheck.

Eine solche Einordnung hat in den deutschsprachigen Massenmedien gefehlt, die über die Newsguard-Analyse berichteten. Stattdessen vermittelten die Schlagzeilen ein verzerrtes Bild von sehr erfolgreicher Kreml-Propaganda. Dabei weiß man eigentlich: Die russische Einflussnahme entfaltet ihre größte Wirkung erst dadurch, dass traditionelle Medien darüber berichten.

Mit alarmistischen Titeln zu KI-Chatbots verstärken Medien ein Gefühl in ihrer Leserschaft, dass man heute alles hinterfragen müsse, was man liest, hört, sieht. Damit scheint die Grenze zwischen wahr und gefälscht immer schwieriger erkennbar.

Und aus der Politikwissenschaft weiß man, was passiert, wenn Wähler nicht mehr wissen, was echt ist und was gefälscht: Sie glauben in der Tendenz nur noch jenen Fakten, die in ihr Weltbild passen. Das wiederum erschwert tatsächlich den politischen Diskurs.

Kann man sich also getrost mit dem KI-Chatbot über die Lage der Welt informieren? Gefragt nach dem gegenwärtigen Präsidenten der USA, schreibt der Google-Chatbot Gemini: „Joe Biden“.

Dieser Artikel erschien zuerst in der Neuen Zürcher Zeitung.

Ähnliche Artikel