Hamburg Welche KI-Betrugsmaschen es gibt und wie man sie aufdeckt
Die Künstliche Intelligenz gibt Kriminellen mächtige Möglichkeiten, ihre Mitmenschen zu betrügen. Welche Betrugsmaschen es gibt und wie man den Betrug aufdecken kann.
Die Künstliche Intelligenz (KI) findet immer mehr Gebrauch in unserem gesellschaftlichen Leben. Neben nützlichen Arbeitsprozessen, die von der KI übernommen werden können, wie zum Beispiel das Schreiben von Artikeln oder Zusammenfassungen durch ChatGPT, oder das Erstellen von täuschend echten Bildern und Videos durch Programme wie Midjourney oder Synthesia.
Die Programme werden immer besser und sind häufig frei zugänglich. Sie bieten unendliche Nutzungsmöglichkeiten – auch für Kriminelle. Sie schaffen zum Teil täuschend echt wirkende Produktionen. Diese nennt man auch „Deepfakes“.
Weiterlesen: Dein Gesicht in Szene von Hugh Jackmans neuem Film – ein Selfie reicht
Diverse Programme ermöglichen es den Anwendern unter anderem, Stimmen zu imitieren, oder bekannte Personen in Videos oder Bildern augenscheinlich Dinge tun zu lassen, die Sie nie gemacht haben. Man braucht nur wenige Sätze und Ton-, oder Bildaufnahmen, um eine Szene darzustellen, die so nie passiert ist.
Gefährlich wird es, wenn diese Technologie zum Beispiel für Erpressungen oder die berüchtigten Enkeltricks verwendet wird. Mittels öffentlich geteilten Aufnahmeschnipseln aus den sozialen Netzwerken können bestimmte KI-Programme die Stimmen von Familienangehörigen nachahmen.
Diese Technik dürfte in Zukunft immer ausgefeilter werden. Sodass es auch schwerer wird, Betrugsmaschen oder auch „Scams“ mithilfe von KI zu entlarven. Welche Möglichkeiten habe ich also, um diese Betrugsmaschen zu erkennen?
Folgende Tipps geben der Verfassungsschutz und das Bundesamt für Sicherheit in der Informationstechnik.
Bei Videos:
Sorgen Sie für gute (Bild-)Qualität. Je besser die Qualität des Bildschirmes ist, desto leichter lassen sich Pixelfehler oder ungewöhnliche Verzerrungen erkennen. Daher sollten solche Videos am besten auf einem großen Monitor gesehen werden.
Achten Sie auf die Mimik der Person. Natürliche Reaktionen wie Blinzeln oder Stirnrunzeln kann die Künstliche Intelligenz ebenfalls nur schwer nachstellen. Daher sollte ein mögliches Deepfake-Video immer verlangsamt angeguckt werden, um Verzerrungen im Bild zu erkennen.
Bei Tonaufnahmen:
Metallischer Sound Viele KI-Verfahren erzeugen ein Audiosignal, welches das menschliche Gehör als „metallisch“ wahrnimmt.
Falsche Aussprache Häufig können die Systeme Wörter nicht richtig aussprechen, wenn das KI-Programm mit zum Beispiel englischen Wörtern trainiert wurde, kann es sein, dass deutsche Wörter falsch ausgesprochen werden.