Veröffentlicht inDigital Life

Deepfakes: Reddit will falsche Porno-Videos löschen

Nachdem Pornhub bereits Maßnahmen gegen sogenannte Deepfakes ankündigte, geht jetzt auch Reddit gegen die falschen Porno-Videos vor.

Eine junge Frau in einem Video auf der Porno-Website Pornhub.
Die Deepfakes sind derzeit juristisch noch nicht klar einzuordnen. Foto: Screenshot

Der Skandal um die sogenannten Deepfakes, wurde Ende letztes Jahres bekannt. Betroffen sind unter anderem die Schauspielerinne Emma Watson, Scarlett Johansson, Cara Delevingne und Gal Gadot. Deepfakes sind Porno-Videos, in denen durch eine künstliche Intelligenz Videomaterial von bekannten Persönlichkeiten oder anderen Menschen ohne deren Einwilligung auf die Körper von Porno-Darstellern in den Filmen montiert wurden.

Derzeit noch Deefakes auf Pornhub

Die Porno-Website Pornhub hat nun angekündigt, auf diesen Skandal reagieren zu wollen. Die Website ließ verlauten: „Wir tolerieren keine Inhalte auf der Seite, denen nicht zugestimmt wurde, und werden solche Inhalte von der Seite löschen, sobald wir auf sie aufmerksam gemacht werden.“ Zuvor hatten bereits die Websites Discord und Gfycat diese Maßnahme angekündigt.

Jedoch berichtete die Website Motherboard, dass man derzeit immer noch Dutzende solcher Deepfakes auf Pornhub finde, wenn man nach diesem Schlagwort suche. Das Unternehmen Pornhub wartet anscheinend wirklich, bis sie auf die Videos einzeln aufmerksam gemacht werden, bevor sie diese löschen.

—————

Das könnte auch interessant sein:

—————

Maßnahmen gegen Deepfakes schwierig

Die Deepfakes bewegen sich in unsicherem juristischen Gewässer. Sie können einerseits als eine etwas ausgefeilte Form von Pornographie oder auch als eine erweiterte digitale Reaktion auf Hollywood-Schauspieler gewertet werden, was an sich nicht illegal ist. Andererseits ragen sie hinein in juristische Bereiche wie etwa Diffamierungen oder Urheberrechtsverletzungen, was wiederum juristisch zu ahnden wäre.

Eine Möglichkeit, abseits von Gerichten etwas gegen die Deepfakes zu tun, ist zu versuchen, große Plattformen wie Pornhub dazu zu bewegen, die Videos wirklich zu löschen. Dies ist derzeit noch nicht der Fall. Nach wie vor ist beispielsweise auch die zentrale Stelle für die Pornhub-Community auf der Website Reddit unverändert. Da Reddit nicht für die Inhalte auf Pornhub verantwortlich ist, ist es unwahrscheinlich, dass sich dieser Zustand dort bald ändert.

Update: Reddit geht gegen Deepfakes vor

Einen Tag später zieht jetzt auch Reddit nach. Die Deepfakes-Sub-Gruppe zu dem Thema war bereits auf 80.000 Abonnenten angewachsen. Seit Mittwoch taucht dort die Info auf: „Diese Gruppe wurde gebannt.“ Reddit begründet den Schritt mit einer Verletzung der Content-Policy und konkretisiert auch, dass es dabei um unfreiwillige Pornografie geht. Auch für Reddit ist daher ebenso wie für Pornhub die Grenze überschritten worden, weil die Videos nicht im Einvernehmen entstanden sind – weder die Pornodarstellerinnen noch die Schauspielerinnen haben ihre Zustimmung für derartige Montagen gegeben.

Twitter kündigt Maßnahmen an

Auch Twitter hatte am Dienstag angekündigt, Accounts zu sperren, die Deepfake-Videos ins Netz stellen oder die sich der Verbreitung solches Clips verschreiben. Eine ähnliche Position vertritt auch Gfycat: Die Betreiber der Gif-Austauschplattform erklärten Ende Januar laut einem Spiegel-Bericht, Deepfakes zu löschen. Zuvor hatte bereits die Chatplattform Discord einen Chatkanal rund um gefälschte Promi-Pornovideos vom Netz genommen.

Auch wenn damit immer mehr Plattformen gegen Deepfakes vorgehen, wird dieses Phänomen nicht mehr so schnell aus dem Netz verschwinden. Der Entwickler des Programms hat etwa angekündigt, seine Software weiterentwickeln zu wollen, damit diese künftig nur noch mit einem Click funktioniert. Auch in der VR-Sex-Branche gibt es zudem Diskussionen darüber, ob echte Personen in einer VR-Umgebung sexualisiert werden dürfen.

Du willst mehr von uns lesen? Folge uns auf Google News.