Hamburg  Studie zeigt: Führende KI-Chatbots verbreiten russische Propaganda

Mark Otten
|
Von Mark Otten
| 20.06.2024 06:31 Uhr | 0 Kommentare | Lesedauer: ca. 2 Minuten
Russische Propaganda in ChatGPT und Co.? Das dürfte dem russischen Präsidenten Wladimir Putin gefallen. Foto: IMAGO / ZUMA Press Wire
Russische Propaganda in ChatGPT und Co.? Das dürfte dem russischen Präsidenten Wladimir Putin gefallen. Foto: IMAGO / ZUMA Press Wire
Artikel teilen:

Laut einer Studie aus den USA spucken KI-Chatbots wie ChatGPT oder Microsofts Copilot regelmäßig russische Propaganda als Antworten aus. Warum das so ist – und was der Studienleiter Nutzern rät.

Die US-Regierung hört Donald Trumps Wohnsitz Mar-a-Lago ab und eine ukrainische Troll-Farm hat die US-Wahlen unterwandert, um Ergebnisse zu manipulieren: Das sind zwei der Falschaussagen, die zahlreiche KI-Chatbots als Fakten dargestellt haben, berichtet die US-Nachrichtenseite Axios.

Das Problem besteht laut einer Studie des US-Portal „Newsguard“ bei diesen getesteten Anbietern:

„Newsguard“ überwacht das Internet auf Des- und Fehlinformationen und weist regelmäßig auf Missstände hin.

Für die Studie gingen die „Newsguard“-Analysten auf Themen ein, die unter anderem John Mark Dougan verbreitet hat – ein in Moskau lebender amerikanischer Flüchtling, der von dort aus laut „New York Times“ Desinformationen verbreitet.

Die Leiter tippten 57 Eingabeaufforderungen in zehn führende Chatbots ein – bei rund jeder dritten Antwort (32 Prozent) spuckte die KI russische Desinformationserzählungen aus. Als Quelle nannte die KI oft eine gefälschte Webseite für angebliche Lokalnachrichten, die Dougan betreibt.

„Newsguard“ Co-CEO Steven Brill nannte diese Erkenntnis „alarmierend“. Was ihn beunruhigt: Die Chatbots wiederholten Falschaussagen und Propaganda und behandelten Dougans Seite als vertrauensvoll Quelle – obwohl die Aussagen und der Verfasser einschlägig bekannt seien. Die Untersuchung belege, dass die Hersteller den Bereichen Nachrichten und Informationen besondere Aufmerksamkeit widmen müssten, so Brill.

Dazu passt: Suchmaschinen-Marktführer Google will in Zukunft Antworten direkt in einer KI-Zusammenfassung liefern. Auch Microsoft und Apple haben oder wollen KI-Anbieter stärker für Suchergebnisse in ihre Systeme einbinden.

KI-Chatbots werden unter anderem mit im Internet verfügbaren Informationen trainiert. Dabei haben die aktuellen Modelle jedoch immer wieder Probleme, seriöse und unseriöse Quellen zu unterscheiden. So erklärte Googles Gemini im Mai, Wissenschaftler würden dazu raten, jeden Tag einige Steine zu essen – als Quelle nannte die KI den Artikel eines US-Satire-Magazins.

Nun wird deutlich, dass die KI-Modelle nicht nur Satire mit Fakten verwechseln, sondern auch gezielte Desinformationen und Propaganda nicht als solche erkennen. Stattdessen werden falsche Berichte als Fakten präsentiert. Die Nachrichtenanalysten befürchten, dass sich die Verfasser von Falschinformationen das noch stärker zunutze machen werden.

Steven Brills Rat an alle Nutzer von KI-Chatbots lautet: „Vertraut vorerst nicht den Antworten, die von den meisten dieser Chatbots zu Nachrichten gegeben werden, insbesondere zu kontroversen Themen.“

Ähnliche Artikel