Veröffentlicht inDigital Life

Wenn die KI Fake-Pornos kreiert

Künstliche Intelligenzen werden auch dann für unser Privatleben gefährlich, wenn sie Porno-Inhalte verbreiten, die Fake sind – allein aus dem Grund, dass wir unsere Daten preisgeben.

Frau mit dem Gesicht von Gal Gadot liegt mit einer Kiste und einem Sextoy auf dem Bett.
Nein

Auf dem Bild oben ist Gal Gadot zu sehen. Sie ist Model und Schauspielerin und bekannt geworden durch ihre Verkörperung der Superheldin im DC-Blockbuster „Wonder Woman“. Dass sie in einem Video, zu dem das besagte Bild gehört, als Pornodarstellerin zu sehen sein soll, ist allerdings überraschend. Sich halbnackt auf dem Bett räkelnd holt sie darin nach Aufforderung des Kameramanns ein Sexspielzeug aus einer Schachtel. Das kann doch nicht wirklich sie sein, oder?!

Natürlich gibt es viele Berühmtheiten, die eine Vergangenheit im Pornogeschäft vorweisen können. Die deutsche Schauspielerin Sibel Kekilli gehört zum Beispiel dazu. Über Gal Gadot ist das allerdings nicht bekannt. Deshalb ist das Video auch ein Fake. Erstellt hat es ein Reddit-User mit Namen „deepfakes“, wie Motherboard berichtet. Er hat nach eigenen Angaben den täuschend echten Clip nicht etwa in einem teuren CGI-Studio selbst gedreht, sondern eine künstliche Intelligenz dafür arbeiten und lernen lassen.

Die Kehrseite der KIs

Die von ihm erstellte Software griff anscheinend auf die Open-Source-Bibliotheken „Keras“ und „TensorFlow“ zu, um anhand von Bildern und YouTube-Videos einen Algorithmus zu erlernen, mit dem der kurze Clip verändert worden ist. Das Gesicht von Gadot wurde deshalb nur mit dem der wahren Darstellerin vertauscht. Ähnliche Fake-Pornos hat „deepfakes“ bereits mit Taylor Swift, Scarlett Johansson und „Game of Thrones“-Star Maisie Williams veröffentlicht. Der Clip mit der „Wonder Woman“-Mimin ist Motherboard zufolge bereits wieder gelöscht worden, kursiert aber noch auf diversen Nachrichten-Websites.

Er zeigt jedenfalls, was mit KI heutzutage alles möglich ist, und das eben auch im negativen Sinne. Vom Recht am eigenen Bild ganz zu schweigen, werden hier Persönlichkeitsrechte verletzt, in die Privatsphäre von Menschen wird eingegriffen und im schlimmsten Fall hat es das Opfer mit Rufmord zu tun.

Jeder könnte Videos faken

Dass Softwares auf Datenmaterial zugreifen können, das offen verfügbar ist, um dadurch mit nur wenigen Kenntnissen über lernende Algorithmen ein gefälschtes, aber täuschend echtes Video unerlaubt zu veröffentlichen, ist die gefährliche Seite der stetigen Digitalisierung und Automatisierung. Und das gilt nicht nur für Prominente. Jeder könnte sich diese Fähigkeiten aneignen. Und viele machen Tag für Tag Fotos von sich und seiner Umgebung: Allein von 2015 bis 2016 wurden 24 Milliarden Selfies bei Google Photos hochgeladen, wie das Unternehmen in einem Blogeintrag angibt. Beim Messenger WhatsApp wiederum, den weltweit eine Milliarde Menschen nutzen, werden täglich 4,5 Milliarden Fotos und eine Milliarde Videos ausgetauscht.

Motherboard gegenüber erwähnte „deepfakes“, er sei kein professioneller Datenanalyst, sondern einfach ein Programmierer mit Interesse an Maschinellem Lernen. „Ich habe einfach einen cleveren Weg gefunden, Gesichter auszutauschen.“ Die Frage, ob derartige Videos nun aus Rache oder reinem Interesse an der Technologie heraus entstehen, erscheint, gemessen an der Einfachheit ihrer Produktion, fast nebensächlich.

Du willst mehr von uns lesen? Folge uns auf Google News.