Hamburg/ Kiel  KI-Experte warnt: „Wenn sie gut gemacht sind, dann können wir keinen Unterschied mehr zu einem echten Foto erkennen“

Yannik Jessen
|
Von Yannik Jessen
| 11.04.2023 11:00 Uhr | 0 Kommentare | Lesedauer: ca. 3 Minuten
Mithilfe einer KI erstellte der Journalist Eliot Higgins fiktive Fotos, auf denen die Festnahme von Donald Trump zu sehen ist. Foto: dpa/J. David Ake
Mithilfe einer KI erstellte der Journalist Eliot Higgins fiktive Fotos, auf denen die Festnahme von Donald Trump zu sehen ist. Foto: dpa/J. David Ake
Artikel teilen:

Der Hype um künstliche Intelligenzen hat mit ChatGPT ein neues Level erreicht. Immer häufiger tauchen jetzt gefälschte Fotos auf. Die Entwicklung ist allerdings nicht nur positiv.

Vor kurzem sind zwei Fotos im Internet aufgetaucht, auf denen Ereignisse zu sehen waren, die so nie stattgefunden haben. Das Bild von Papst Franziskus in modischer Daunenjacke entwickelte sich in kürzester Zeit zum Internethit. Eric Trump, Sohn des ehemaligen US-Präsidenten Donald Trump, postete außerdem ein Foto seines Vaters, dass ihn angeblich auf dem Weg zum Gericht zeigt.

Trump geht dabei zwischen seinen Personenschützern und wird verfolgt von einer Masse an Demonstranten, die scheinbar auf seiner Seite stehen. Bei genauem Hinsehen fällt allerdings auf, dass mit dem Bildern etwas nicht stimmt.

Deformierte Gesichter der Menschen in der Menge zeigen recht deutlich, die Szene hat so nie stattgefunden, sondern wurde von einer künstlichen Intelligenz (KI) erstellt. Aber nicht immer sind solche Bilder leicht zu erkennen. „Wenn sie gut gemacht sind, dann können wir keinen Unterschied mehr zu einem echten Foto erkennen“, sagt Lars Schmarje, Doktorand in der Arbeitsgruppe Multimediale Informationsverarbeitung an der Universität Kiel.

Die realistischsten Fotos, die aktuell von KIs erstellt werden, stammen in der Regel von Midjourney. Das in den USA entwickelte Programm erstellt via Texteingabe in kurzer Zeit künstlerische oder realistische Bilder.

KI generierte Bilder sind laut Schmarje mittlerweile so gut geworden, dass nur noch Anhand von Details Unterschiede zu echten Fotos erkannt werden können. „Es gibt typische Artefakte wie Arme, Beine oder Schatten, mit der eine KI Probleme haben kann. Auch Gesichter können manchmal komisch aussehen“, erklärt der Doktorand.

Eine richtige Schwachstelle gebe es bei KIs mittlerweile nicht mehr. Ganz hoffnungslos ist die Situation für Schmarje allerdings noch nicht: „Unser Gehirn ist sehr gut im Erkennen von Dingen. Häufig ist es eine gute Methode, einfach seinem Verstand zu vertrauen. Wenn einem das Bild komisch vorkommt, lohnt es sich, noch mal genauer hinzugucken.“

Technische Verfahren, die von einer KI generierte Bilder identifizieren können, seien in der Praxis schwer umzusetzen. „Parameter an denen Programme solche Fotos erkennen, werden dann in einer neuen Version einfach überarbeitet. Das würde zu demselben Wettrennen führen, wie wir es bei Antivirenprogrammen bereits haben“, erklärt Schmarje.

Auch kryptografische Verfahren, mit denen Fotos oder Dateien markiert werden könnten, ließen sich nur mit entsprechenden Gesetzen umsetzen. Allerdings sei es selbst dann möglich, diese zu umgehen. Stattdessen ist es laut Schmarje viel wichtiger, Aufklärungsarbeit zu leisten.

Nur weil wir Bilder sehen, müssten diese noch lange nicht echt sein. Genauso müsse die Bevölkerung sich auf Journalisten verlassen, dass Fotos vor der Veröffentlichung geprüft werden. „Aufklärung ist das effektivste Mittel gegen täuschend echte Bilder“, sagt Schmarje.

Wenn sich der Gefahr nicht bewusst gemacht werde, drohe im schlimmsten Fall eine Destabilisierung der Gesellschaft. KI-Bilder können für Fake News und Propaganda eingesetzt werden. Bei Wahlen können KIs personalisierte Texte und Bilder für Social Media erstellen und so Wähler beeinflussen.

Auch sozialer Druck spielt für Schmarje eine Rolle: „Fälschungen sind inzwischen viel einfacher zu erstellen und dadurch sinkt auch die Hemmschwelle bei Tätern.“ Als Beispiel nennt der Doktorand das Thema Racheporno. Also die Verbreitung von sexuellen Fotos und Videos des Ex-Partners. „Dadurch dass sich Gesichter beliebig austauschen lassen, können Täter ihre Ex-Partner in Pornofilme retuschieren und das Material dann im Internet verbreiten“, warnt Schmarje.

Ähnliche Artikel