Flensburg  Fiktion statt Fakten: Wie Künstliche Intelligenz unsere Sinne täuscht

Thomas Brandstetter
|
Von Thomas Brandstetter
| 15.08.2023 10:53 Uhr | 0 Kommentare | Lesedauer: ca. 6 Minuten
„Deepfakes“ sind aus Sicht von Sicherheitsbehörden ein zunehmend großes Risiko, denn die Technologie dafür wird immer besser und braucht immer weniger Ressourcen. Foto: Hauke-Christian Dittrich/dpa
„Deepfakes“ sind aus Sicht von Sicherheitsbehörden ein zunehmend großes Risiko, denn die Technologie dafür wird immer besser und braucht immer weniger Ressourcen. Foto: Hauke-Christian Dittrich/dpa
Artikel teilen:

KI-gestützte Technologien, mit denen Bilder, Videos und Audioinhalte täuschend echt manipuliert werden können, entwickeln sich rasend schnell. Werden wir unseren Augen und Ohren schon bald nicht mehr trauen können?

Es ist schon ein paar Jahre her, dass uns die ersten Vorläufer per KI manipulierter Videos, sogenannter Deepfakes, in Erstaunen versetzt haben. Man erinnere sich nur an Ex-Präsident Obama, der charmant wie immer in die Kamera lächelte und seinen Nachfolger Trump in einer Fernsehansprache einen totalen Vollidioten nennt.

Damals folgte die Aufklärung noch auf dem Fuße. Am Ende des Clips fiel die Maske und es zeigte sich der Stimmenimitator, der Obama diese Worte in den Mund gelegt hatte, während Künstliche Intelligenz Mimik und Lippenbewegung im Video perfekt daran angepasst hatte. Und selbst wenn ein falscher Vitali Klitschko Berlins Bürgermeisterin an der Nase herumführt, ist trotz des todernsten Hintergrundes eines Krieges noch von einem „Streich“ russischer Komödianten die Rede.

Doch die Lage ist ernst. „In den letzten fünf Jahren haben sich die Methoden zur Erzeugung detailgetreuer, fiktiver Darstellungen von Menschen und Ereignissen von exotischen Demonstrationen einzelner Forschungsteams zu einem laufend eingesetzten Instrument der Desinformation weiterentwickelt“, lautet etwa die nüchterne Bestandsaufnahme von Eric Horvitz, dem Chief Science Officer von Microsoft. Er hat sich in einem Forschungspaper mit dem Thema befasst und lässt auch gleich eine eindringliche Warnung folgen:

Horvitz bezieht sich dabei unter anderem auf die zunehmende Bedeutung sogenannter GAN-Modelle (Generative Adversarial Networks). Bei dieser Spielart des maschinellen Lernens stehen sich zwei KI-Systeme gegenüber, von denen eines ständig versucht, noch überzeugendere Fälschungen zu generieren, während das andere darauf angesetzt ist, diese von echten Inhalten zu unterscheiden. Im daraus resultierenden, automatischen Wechselspiel schaukelt sich die Qualität der manipulierten Inhalte immer weiter auf. „Mit diesem Prozess als Grundlage von Deepfakes werden weder Mustererkennungstechniken noch Menschen in der Lage sein, Fälschungen zuverlässig zu erkennen“, schreibt Horvitz.

„Dass diese neuen Arten der Desinformation eine Gefahr für die Demokratie darstellen, hat man inzwischen begriffen“, konstatiert Patrick Aichroth, der am Fraunhofer-Institut für Digitale Medientechnologie die Gruppe Media Distribution and Security leitet. „Es gibt aber auch noch andere Bereiche wie Phishing, Identitätsdiebstahl oder Rufmord, die man als Gefahr für die Gesellschaft sehen sollte.“ Gemeinsam mit anderen wissenschaftlichen Institutionen und privaten Unternehmen will der Forscher im vom Bundesministerium für Bildung und Forschung geförderten Projekt „news-polygraph“ eine Toolbox zur Erkennung von manipulierten Medieninhalten entwickeln.

„Zum Glück sind Deepfake-Modelle heutzutage noch nicht flächendeckend so gut trainiert und auch noch nicht so nutzerfreundlich, dass sie perfekte Ergebnisse liefern würden“, sagt Aichroth. Deshalb sei es gängige Praxis derjenigen, die Deepfakes anwenden, die Technologie auch noch mit anderen, technisch weniger anspruchsvollen Mitteln zu verschränken. Auch im Fall des gefälschten Klitschko-Anrufes deutet vieles darauf hin, dass die eingesetzte Technik eher ein „Shallow Fake“ war.

„Man soll die Kreativität der Angreifer nicht unterschätzen“, rät Aichroth. So war bei dem Anruf etwa auch ein Übersetzer im Spiel, dessen Stimme womöglich einiges überdeckt hat. Und auch mit absichtlich schlechter Übertragungsqualität oder vorgetäuschten Verbindungsproblemen lassen sich Mängel in einer Fälschung gut kaschieren und ermöglichen es dem Angreifer, auch mit schlechten Fälschungen zu überzeugen.

„Da kann es dann eventuell schon reichen, alte Videoaufnahmen der Zielperson zu verwenden und zu verändern, ohne aufwendige KI einzusetzten.“

Die technischen Möglichkeiten, Gesichter von Personen auch in Echtzeit nach Belieben auszutauschen bestehen aber bereits. Und mit entsprechendem Aufwand und Rechenleistung ist es durchaus möglich, etwa eine Ansprache eines Politikers täuschend echt zu manipulieren. Das könnte beispielsweise dem Zweck dienen, eine Katastrophe vorzutäuschen und Panik zu verursachen oder gar eine falsche Kriegserklärung auszusprechen. „Im Fokus steht dabei häufig das Zusammenspiel zwischen Sprache und Gesicht“, sagt Aichroth. „Das macht die übermittelte Botschaft glaubwürdiger.“

Fälschungen können sich aber auch auf andere Objekte in Videos beziehen. Will ein kreativer Angreifer beispielsweise einer Einzelperson eine Straftat unterjubeln, so könnte die Manipulation von einem Überwachungsvideo ein effektives Instrument sein. Und auch hier gibt es unterschiedliche Methoden, die nicht immer auf KI-gestützter Synthese basieren müssen. „Wenn in einem Video bestimmte Dinge auftauchen, die eigentlich gar nicht da waren oder Dinge verschwinden, die man eigentlich sehen sollte, kann das schon eine gewaltige Rolle spielen“, warnt Aichroth.

Um der Kreativität der Angreifer Rechnung zu tragen, ist bei news-polygraph die Technologie zur Erkennung von Deep-Fakes immer der menschlichen Bewertung und Überprüfung untergeordnet. „Es gibt einfach zu viele Möglichkeiten und Handlungsoptionen“, sagt Tim Polzehl, der sich am Deutschen Forschungszentrum für Künstliche Intelligenz und der TU Berlin unter anderem mit Crowdsourcing Technologie beschäftigt und ebenfalls am Projekt beteiligt ist.

„Da ist es auf absehbare Zeit schwer vorstellbar, dass ein automatisches Verfahren ganz alleine damit umgehen kann.“ Da die Fälschungen langsam aber sicher die menschlichen Wahrnehmungsgrenzen erreichen, sind technische Hilfsmittel bei der Erkennung von Fälschungen zwar unumgänglich. Ganz ohne Menschen ist eine Bewertung und Einordnung von Desinformation allerdings noch nicht möglich.

Dem Gedanken des „Human in the Loop“ entsprechend setzen die Forscher bei der Entwicklung ihres „Werkzeugkastens“ deshalb auch auf eine starke Crowd. Das können Experten sein, die Fragen in bestimmten Fachgebieten beantworten können. Oder auch ganz normale Menschen, die über ihren Rechner oder über ihr Mobiltelefon kleinere Aufträge annehmen und sich nebenbei ein paar Euro dazuverdienen. Letztere sind immer dann von Vorteil, wenn viele Meinungen aus regionalen Gebieten benötigt werden, etwa wenn sich die Frage stellt, ob eine Aufnahme wirklich an einem bestimmten Ort entstanden sein kann oder nicht.

„Und wir sind diejenigen, die diese Crowds orchestrieren und lernen, wen man ansprechen kann, um bestimmte Fakten zu verifizieren“, erklärt Polzehl. Das Resultat soll ein Algorithmus sein, der sowohl Menschen wie KI-Bausteine automatisch miteinander verschaltet und letztendlich von alleine läuft. Der fertige Werkzeugkasten soll es schließlich vor allem Journalisten und Medienschaffenden ermöglichen, schnell und unkompliziert Fakten zu verifizieren.

Als mindestens genauso wichtig könnte sich in Zukunft das Zertifizieren von Originalen erweisen. Dafür kämen Signaturen auf Basis kryptographischer Hashes in Frage, die die Echtheit eines Videos belegen und jede nachträgliche Manipulation auffliegen lassen. Digitale „Wasserzeichen“, die über ein Originalbild gelegt werden, mit bloßem Auge aber nicht erkennbar sind, können das Fälschen erschweren. Die stärksten Mittel, um Desinformation vorzubeugen bleiben Medienkompetenz und kritisches Denken.

Diese zutiefst menschlichen Faktoren sind mindestens so wichtig wie die modernen Technologien, denen wir in Zukunft wohl noch vermehrt ausgesetzt sein werden.

Ähnliche Artikel