Hannover Wie Niedersachsens Grüne gegen Fake-Pornografie vorgehen wollen
Mit Künstlicher Intelligenz können Nutzer falsche Pornografie von Promis, Freunden oder der Chefin erstellen. Die Opfer können sich kaum wehren. Denn Bildrechte durchzusetzen, ist nicht einfach.
Falsche Nacktfotos von Prominenten gibt es schon so lange wie das Internet selbst. Bislang waren die Fotomontagen zwar aufwendig, aber in der Regel doch deutlich als künstlich erkennbar. Doch das ändert sich nun mit dem Einsatz Künstlicher Intelligenz (KI).
Mit entsprechenden Programmen kann heutzutage so gut wie jeder ohne großen Aufwand falsche Pornografie von Prominenten, oder aber auch von persönlich bekannten Personen erstellen lassen. Bereits mit wenigen Fotos lassen sich falsche Nacktfotos generieren, etwa 15 Bilder reichen schon für ein ganzes Video. Grenzen gibt es quasi keine, viele Programme dafür sind sogar kostenlos.
Wenn echte Nacktbilder oder pikante Videos ungewollt ins Netz gestellt werden, beispielsweise von einem rachsüchtigen Ex-Partner, haben Betroffene Rechte am eigenen Bild. Diese gegen große Plattformen durchzusetzen, kann in der Praxis zwar schwierig sein, doch immerhin gibt es sie. Wurden die Aufnahmen aber von einer KI generiert, ist fraglich, ob Betroffene diese Rechte auch haben. Denn es handelt sich streng genommen gar nicht um ein Bild der Betroffenen, auch, wenn es täuschend echt so aussehen kann.
Es gibt bereits einen niedersächsischen Kommunalpolitiker, der Opfer eines sogenannten Deepfakes wurde und der massive private Auswirkungen beklagt. Doch vom Problem können auch Privatpersonen betroffen sein, sofern Täter über genügend Bildmaterial verfügen. Die falschen Videos werden dann in sozialen Netzwerken verbreitet oder heimlich auf Pornoplattformen hochgeladen.
Gegen solche Deepfakes kann derzeit mit dem Sexualstrafrecht gar nicht und mit dem Zivilrecht nur sehr schwer vorgegangen werden. Nur Kinder schützt das Sexualstrafrecht, das für Minderjährige auch „realitätsnahe“ Darstellungen unter Strafe stellt.
Auch Evrim Camuz ist aufgefallen, dass die Technik die Rechtslage inzwischen überholt hat. Die rechtspolitische Sprecherin der Grünen im niedersächsischen Landtag hat Rechtswissenschaften mit dem Schwerpunkt IT-Recht studiert und eine „Affinität“ zu digitalen Rechtsthemen, durch die sie auf die Gesetzeslücke gestoßen ist. „Diese Lücke möchte ich jetzt schließen“, sagt sie.
Ein bereits beschlossener Entschließungsantrag im niedersächsischen Landtag sollte bei der Stiftung Opferhilfe Niedersachsen eine zentrale Informationsstelle für Opfer bildbasierter sexualisierter Gewalt schaffen. Weil Opfer dieser bildbasierten sexualisierten Gewalt häufig auch mit tiefgreifenden psychischen Belastungen wie Scham, Angst und das Gefühl des Kontrollverlustes über die eigene Intimsphäre konfrontiert sind, sei eine Anlaufstelle nötig, heißt es im Antrag. 240.000 Euro wurden dafür bereitgestellt.
Der Bundesrat hat zudem bereits im letzten Sommer auf Initiative Bayerns einen Gesetzesentwurf beschlossen, der Persönlichkeitsrechte vor Deepfakes ganz grundsätzlich durch das Strafrecht schützen soll. Darunter fallen dann auch beispielsweise falsche Zitate von Politikern. Außerdem solle die Bundesregierung „Programme zur Erkennung und Kennzeichnung von Deepfakes auf den Weg bringen und unterstützen“. Der Bundestag und auch seine Ausschüsse haben sich bislang nicht mit dem Entwurf befasst. Eine Frist dazu gibt es nicht.