Osnabrück Historiker zu KI-Fakes: „Seit es Fotos gibt, werden sie verfälscht“
KI-generierte Geschichtsthemen sind im Internet omnipräsent. Der Historiker Sebastian Kubon befasst sich mit dem bislang kaum erforschten Phänomen – und sieht in den neuen digitalen Möglichkeiten durchaus auch Chancen.
Wie unappetitlich es sein kann, wenn man mithilfe von Künstlicher Intelligenz Geschichte zu Geld machen will, zeigte sich Anfang des Jahres zum Holocaust-Gedenktag: Plötzlich tauchten zahllose KI-generierte Bilder im Internet auf, die erfundene Szenen aus Konzentrationslagern zeigten. Auch mit anderen Fake-Geschichtsinhalten wird Kasse gemacht. Der Historiker Sebastian Kubon von der Ludwig-Maximilians-Universität München forscht zu diesem Thema – und erklärt, wie man am besten damit umgehen sollte und warum es nicht immer zwingend schlecht sein muss, wenn KI auf Geschichte trifft.
Frage: Herr Kubon, mitunter beschleicht einen das Gefühl, dass Plattformen wie Facebook oder Youtube mit KI-generierten – und teils massiv geschichtsverzerrenden – Inhalten geradezu geflutet werden. Wie groß ist das Problem wirklich?
Antwort: Das kann man schlecht sagen, weil es keine Auszählung gibt. Aber: Es fällt auf, dass es auffällt. Wir haben etwa diese Fake-Bilder aus dem Bereich des Holocaust, die Anfang des Jahres in den Fokus geraten sind, als Gedenkstätten in einem offenen Brief gesagt haben: Das geht so nicht weiter, das ist verfälschte Geschichte und das hat Ausmaße angenommen, dass die großen Konzerne das unterbinden müssen. Dazu kommen auch sehr viele KI-generierte Bilder zu anderen Themen, Hiroshima zum Beispiel, oder auch der Papst in der Daunenjacke. Auf Tiktok liegen KI-generierte Videos aus der Ich-Perspektive im Trend, die aber natürlich direkt zeigen, dass sie KI generiert sind.
Frage: Wo kommen diese Inhalte her?
Antwort: Die BBC hat etwa vor einem Jahr berichtet, dass es mittlerweile richtige Firmen etwa in Pakistan gibt, die so etwas erstellen und in denen man demnach bis zu 20.000 Dollar im Monat verdienen kann. Geschichte ist halt ein großes Gebiet, mit dem man auch Geld generieren, aber vor allem sehr gut Politik betreiben kann. Aber welche Ausmaße das annimmt, ist ganz schwer abzuschätzen und auch noch nicht wirklich erforscht.
Frage: Gibt es denn auch positive Beispiele für KI-generiertes Material zu historischen Themen?
Antwort: Wir haben auch natürlich noch andere Produkte, zum Beispiel die „Versäumten Bilder“ der Fotografin Gesine Born: Da werden Frauen, deren wissenschaftliche Leistungen durch die männerdominierte Welt ignoriert wurden („Matilda-Effekt“) und die so in Vergessenheit gerieten, mithilfe von KI ins Bild gesetzt. In der Geschichtswissenschaft läuft eine Debatte dazu: Ist das zulässig, ist es das nicht? Rechtlich kann man das ohnehin nicht unterbinden, aber die Frage ist, dürfen wir das tun?
Frage: Und, dürfen wir?
Antwort: In diesem Punkt würde ich sagen: Ja. In dem Projekt werden die Bilder deutlich als KI-generiert ausgewiesen, mit entsprechendem Prompt und allem Drum und Dran. Was unterscheidet das denn von einem Festschriftbeitrag, bei dem man sagen würde, wir machen jetzt noch mal ein Porträt der Person in Schriftform? Ich finde das in Ordnung, das ist eine historiografische Darstellung mit fiktionalen Elementen, die eben mit KI erstellt wurde. Kollegen sind da anderer Meinung als ich. Natürlich muss man auch dazu sagen, dass ja nicht nur das Ergebnis wichtig ist, sondern auch der Rechercheprozess und die Geschichtspolitik, die betrieben wird, wenn es richtig ausgewiesen und ausgestellt wird.
Frage: Ab wann ist es denn nicht mehr in Ordnung?
Antwort: Wenn versucht wird, einen KI-generierten Inhalt wie eine authentische Quelle aussehen zu lassen und ihn als solche durch die sozialen Medien zu treiben, dann sehe ich das auch als Problem. Da wir das aber nicht unterbinden können und es unrealistisch ist, dass ein Konzern wie Meta dagegen vorgeht, müssen wir beim Rezipienten ansetzen. Menschen, denen so etwas in ihrer Timeline vorgesetzt wird, müssen befähigt werden zu erkennen, was genau sie da eigentlich sehen. Wenn die Grenzen zwischen dem, was wahr und was falsch ist, völlig verfließen, besteht die Gefahr, dass man irgendwann gar nichts mehr glauben kann und möchte.
Frage: Ist dieser Punkt nicht schon fast erreicht?
Antwort: Wahrscheinlich ist das bei Bildern ohnehin schon so. Es ist ja auch kein neues Phänomen: Seit es Fotos gibt, werden sie auch verfälscht – denken Sie an die Bilder von Stalin und seinen Kampfgenossen, aus denen Leute händisch herausretuschiert wurden. Und vielleicht ist es ja auch klug, bei solchen Dingen nicht so sehr die Frage nach dem „wahr“ oder „falsch“ zu stellen, sondern nach der Intention des Urhebers. Denn auch mit unverfälschten Fotos kann man ja hervorragend manipulieren, indem man sie aus dem Kontext reißt. Ich glaube, sich zu fragen, worin die politische Zielsetzung eines (KI-)Bildes liegt, ist die beste Möglichkeit, damit umzugehen.
Frage: Klingt nach einer großen Aufgabe für kommende Lehrer-Generationen …
Antwort: Letztlich ist Quellenkritik ja die Kernaufgabe des Historikers – ob es nun um die Frage geht, ob eine mittelalterliche Urkunde gefälscht ist oder eben ein Foto. Es geht dabei nicht nur um Schülerinnen und Schüler, auch um die älteren Generationen. Mir werden Sachen aus dem Internet weitergeleitet, bei denen man auf den ersten Blick erkennt, dass das Bullshit ist. Trotzdem wird das für wahr gehalten. Also muss man, wie gesagt, beim Nutzer ansetzen.
Frage: Indem man erklärt, an welchen Details Fake-Bilder zu entlarven sind?
Antwort: In einigen Jahren, wahrscheinlich eher Monaten, wird es sich erledigt haben, dass man KI-Bilder daran erkennt, dass an einer Hand sieben Finger zu sehen sind. KI-Bilder werden dann so gut sein, dass man mit solchen Äußerlichkeiten nicht mehr weiterkommt. Aber dann bleibt es bei der Frage: Warum finde ich dieses Bild auf dieser Internetseite? Was soll der Kontext sein, ist der plausibel? Welche Geschichten werden da erzählt? Also quasi das Dekonstruieren des Storytellings.
Frage: Was meinen Sie damit?
Antwort: Es soll ja immer eine Geschichte erzählt werden, und wenn wir beispielsweise eine Trump-Maga-Internetseite nehmen, wissen wir, dass Akteure aus diesem Umfeld bisher nicht gerade oft dadurch auffallen, es beim Erzählen ihrer Geschichte mit der Wahrheit wahnsinnig ernst zu nehmen. Das zu dekonstruieren bleibt schlicht und einfach das Kerngeschäft des Historikers. Also ich glaube, unsere Arbeitsfelder weiten sich dadurch immens aus. Wir müssen das aber natürlich auch annehmen.
Frage: Und geschieht das auch?
Antwort: Es ist nicht so, dass sich jetzt alle Kolleginnen und Kollegen wahnsinnig gerne mit KI auseinandersetzen möchten. Aber das wäre eine genuine Aufgabe, und zwar nicht nur in der Analyse und der Quellenkritik, sondern tatsächlich auch in der Produktion. Ich meine, dass Studierende – und so mache ich das in meinen Seminaren immer – lernen müssten, wie sie solche Inhalte selbst erstellen können. Die muss man dann ja nicht zwingend im Netz versenden. Aber vielleicht lassen sich durch solche, von Historikerinnen und Historikern erschaffene Historiografien in Bildform – oder auch im Audio- und Videoformat – auch Mehrwerte bieten – also sozusagen den Fakes Qualität entgegensetzen. Aber ob und wie das funktionieren kann, ist noch lange nicht ausgehandelt.
Frage: Aber grundsätzlich läge in der KI-Nutzung auch eine Chance für die Vermittlung von Geschichte?
Antwort: KI, wie wir sie jetzt kennen, ist ein neues Phänomen für die meisten. Von Chatbots bekommt man keine massenhaft verbreitete Info, sondern eine individuelle Antwort, die nicht reproduzierbar ist. Das erfordert eine ganz andere Literacy, die noch gar nicht ausgebildet ist. Wie gesagt, das Phänomen KI wird nicht wieder weggehen – aber das Abendland wird dadurch auch nicht untergehen, glaube ich. Es gibt sowohl Chancen als auch Möglichkeiten. So wie Marcel Reich-Ranicki mal über das Fernsehen gesagt hat: Die Klugen macht es klüger und die Dummen macht es dümmer. Man muss die Potenziale eben richtig nutzen.
Frage: Ist das denn realistisch, dass ein 08/15-Internetnutzer sich tatsächlich jedes Mal die Mühe macht, das Ergebnis zu hinterfragen, das ihm die KI vor die Füße wirft?
Antwort: Nun ja, das war früher nicht viel anders. Wenn jemand sagte, er habe dieses und jenes „im Internet gelesen“, war das auch nicht gerade eine reflektierte Nutzung von Quellen. Warum sollte so jemand sein Verhalten ändern? Allerdings wird die Gefahr tatsächlich größer: Vorher hat man zehn Quellen gehabt, musste entsprechend zehnmal Sachen lesen und diese gegeneinander abwägen, um sich dann selbst eine Antwort zusammenzudenken.
Antwort: Heute bekommt man vom Chatbot eine glaubhaft klingende Antwort – dass diese „Das weiß ich nicht“ lautet, kommt ja selten bis nie vor. Fast hat man den Eindruck, mit einem Menschen zu chatten, der Weltwissen hat, und nicht mit einer Autokorrektur. Man muss sich aber immer vor Augen halten: Mit Weltwissen hat das nichts zu tun, nur mit statistischer Wahrscheinlichkeit. Es mag Felder geben, in denen eine Korrektheit von 90 Prozent als ausreichend erachtet wird – bei der Identifikation von Pilzen aber wäre mir das deutlich zu wenig.