Veröffentlicht inScience

Verwechslungsgefahr! So wird Barack Obama zu Donald Trump

Sogenannte Deepfake-Videos hatten einigen Hollywood-Stars ganz schön zugesetzt. Nun zeigen auch Forscher, was mit den gefälschten Clips alles möglich ist.

So sehen die Deepfakes der Forscher aus.
So sehen die Deepfakes der Forscher aus. Foto:

Es gibt Bilder und Videos, die wirken täuschend echt, sind aber falsch. Deepfakes nennt man sie. Die bisher größten Opfer dieser per künstlicher Intelligenz gefälschten Inhalte waren von Deepfake-Porno-Videos betroffene Hollywood-Schauspieler wie Nicolas Cage oder Gal Gadot. Nun haben sich Forscher der Sache angenommen und eine ähnliche Methode entwickelt, die ebenso effektiv wie nervig ist.

Wie Gizmodo berichtet, hat die Carnegie Mellon University einen Weg gefunden, den „Stil“ einer Person automatisch auf eine andere zu übertragen. „Barack Obamas Stil zum Beispiel kann in Donald Trump umgeformt werden“, notierten die Forscher in der Beschreibung eines YouTube-Videos, das ihre Methode veranschaulicht.

An dieser Stelle befindet sich ein externer Inhalt von YouTube, der von unserer Redaktion empfohlen wird. Er ergänzt den Artikel und kann mit einem Klick angezeigt und wieder ausgeblendet werden.

Ich bin damit einverstanden, dass mir dieser externe Inhalt angezeigt wird. Es können dabei personenbezogene Daten an den Anbieter des Inhalts und Drittdienste übermittelt werden.

King – Obama – Trump

Darin werden beispielsweise die Gesichtszüge und -ausdrücke des US-Talkmasters John Oliver auf seinen Kollegen Stephen Colbert sowie auf einen animierten Frosch übertragen, die Mimik von Martin Luther King Jr. wiederum auf Barack Obama und von Obama auf US-Präsident Donald Trump.

Während die Version Oliver-zu-Colbert noch so wirkt, als hätte man ein ziemlich unstetes WLAN-Signal, sind die anderen schon überzeugender. Eine künstliche Intelligenz sorgt mit dem Deepfake-Algorithmus dafür, dass Gesichtsausdruck und Mundbewegungen im Original und Fake genau gleich sind.

Menschen und Blumen

Die Forscher bezeichnen den Prozess in ihrer Abhandlung als „nicht überwachten, datengetriebenen Versuch“. Neben den Person-zu-Person-Deepfakes werden in dem Paper auch Beispiele mit Blumen, Sonnenauf- und untergängen, Wolken und Wind angebracht, die dieselben Bewegungen machen. Die Beispiele an Menschen würden jedoch noch deutlicher zeigen, welches Potenzial ein derartiges Tool habe, so die Wissenschaftler.

Menschliche Animationen könnten so viel leichter erschaffen werden. Allerdings ist die Macht der Deepfakes nicht zu unterschätzen, das wissen nun vor allem die betroffenen Hollywood-Schauspieler.

Du willst mehr von uns lesen? Folge uns auf Google News.