Berlin  So erkennen Sie einen „Deepfake“

Mark Otten
|
Von Mark Otten
| 28.06.2022 14:21 Uhr | 0 Kommentare | Lesedauer: ca. 3 Minuten
„Deepfakes“ sind aus Sicht von Sicherheitsbehörden ein zunehmend großes Risiko, denn die Technologie dafür wird immer besser und braucht immer weniger Ressourcen. Foto: dpa
„Deepfakes“ sind aus Sicht von Sicherheitsbehörden ein zunehmend großes Risiko, denn die Technologie dafür wird immer besser und braucht immer weniger Ressourcen. Foto: dpa
Artikel teilen:

Durch Künstliche Intelligenz erzeugte und manipulierte Bilder und Videos können Menschen leicht täuschen – und großen Schaden anrichten. So entlarven sie die sogenannten „Deepfakes“.

In betrügerischen Fake-Anrufen hat sich ein Unbekannter fälschlicherweise als Vitali Klitschko, Bürgermeister von Kiew, ausgegeben. Offenkundig digital manipulierte Videoschalten gab es unter anderem mit Berlins Regierender Bürgermeisterin Franziska Giffey (SPD) sowie mit den Bürgermeistern von Madrid und Wien.

Bislang ist unklar, welche Art der Manipulation beim Video-Telefonat mit dem falschen Klitschko verwendet wurde. Möglicherweise wurde das Videomaterial eines älteren Klitschko-Interviews als Grundlage verwendet und in Echtzeit mit dem Gesprochenen und den Lippenbewegungen desjenigen zusammengeführt, der tatsächlich mit Giffey sprach. Fachleute nennen das „Face Reenactment“. Die Berliner Senatskanzlei spricht bislang von einem „Deepfake“.

„Deepfakes“ sind mit Hilfe künstlicher Intelligenz (KI) erstellte oder manipulierte Videos, Bilder oder auch Audio-Dokumente, die authentisch wirken sollen, es aber nicht sind. Dazu analysieren Programme anhand vorhandener Bilder und Videos das Gesicht einer Zielpersonen und lernen ihre Mimik und Bewegungen beim Sprechen.

Dank der so gewonnen Daten können Kriminelle mit einer Videokamera und einem Computer zu einer Art digitalen Puppenspieler werden. Der KI-Einsatz sorgt dafür, dass die Stimme möglichst echt klingt und gesprochene Sprache und Mimik zueinander passen. So werden Medienidentitäten gefälscht.

Doch wie schafft man es, „Deepfakes“ nicht auf den Leim zu gehen? Eine erste wichtige Hilfe ist bereits das Wissen um die Existenz dieser Technik. Das führt dazu, nicht automatisch auf die Echtheit eines Videos oder einer Audio-Aufzeichnungen zu vertrauen, sondern diese kritisch zu hinterfragen: Verhält sich eine Person anders als sonst? Ist ihr Verhalten plausibel?

Aber auch technisch kann es durchaus Hinweise geben, die Fälschungen entlarven können. Dazu zählt das Bundesamt für Sicherheit in der Informationstechnik (BSI) unter anderem:

Die Macht und Gefahr dieser Technologie hatte unter anderem der US-Schauspieler Jordan Peel 2018 gezeigt, als er den ehemaligen US-Präsidenten Barack Obama per „Deepfake“ Dinge sagen ließ wie: „Donald Trump ist ein Vollidiot!“

Das BSI warnt, dass die digitalen Täuschungen immer besser werden und sich bei normalem Hinsehen oder Hören kaum noch von echten Videos oder Stimmaufnahmen unterscheiden.

Experten können mit Methoden aus der Medienforensik Artefakte erkennen, die beim Einsatz der Manipulationsmethoden auftreten.

Künftig könnte es auch kryptographische Verfahren geben, die die Quelle von Video- oder Audio-Material eindeutig mit einer Identität verknüpfen, gibt das BSI einen Ausblick darauf, wie zukünftig „Deepfakes“ verhindert werden könnten. Dazu zählten auch zahlreiche Methoden zur automatisierten Erkennung manipulierter Daten, an denen Wissenschaftlerinnen und Wissenschaftler arbeiten.

(mit Material der dpa)

Ähnliche Artikel