Digital Life 

Google zieht mit und nutzt jetzt auch Künstliche Intelligenz im Einsatz gegen Terror-Inhalte

Google folgt dem Beispiel Facebooks
Google folgt dem Beispiel Facebooks
Foto: imago
Nicht nur Facebook hat sich für den Einsatz einer KI zum Aufspüren von terroristischer Propaganda entschieden. Google zieht jetzt mit einer eigenen Initiative nach.

Nach Facebook hat auch Google angekündigt, den Kampf gegen terroristische Inhalte im Netz mit künstlicher Intelligenz zu verstärken. Der Internet-Konzern werde dafür mehr Entwickler und seine modernste Technologie bei selbstlernenden Maschinen einsetzen, kündigte Google-Chefjurist Kent Walker am Sonntag an. Gleichzeitig will Google aber auch verstärkt auf Hilfe von Experten setzen.

YouTube im Visier von Googles KI

Damit sollen unter anderem bei der Videoplattform YouTube automatisch mehr Clips mit Terrorpropaganda aufgespürt werden. Auch die Zahl der Experten, die über als verdächtig markierte Videos entscheiden, werde stark erhöht, schrieb Walker in einem Beitrag in der Londoner Zeitung "Financial Times". Google setzt dabei auf "Trusted Flagger", das sind Einzelpersonen oder Organisationen, denen Google vertraut, wenn sie anstößige oder rechtswidrige Inhalte anzeigen. Das können auch Strafverfolgungsbehörden sein.

"Industrie muss noch mehr tun"

Walker betonte, Google, YouTube und andere Internet-Firmen arbeiteten zwar schon seit Jahren daran, solche Inhalte zu finden und zu löschen - aber "die unbequeme Wahrheit ist, dass wir als Industrie eingestehen müssen, dass noch mehr getan werden muss. Jetzt."

Technologie, die auch wiederholten Video- Upload verhindert

Google setze bereits auf die Analyse von Videobildern, um Terror-Propaganda auch ohne Hinweisen von Nutzern zu entdecken, betonte Walker. Mehr als die Hälfte der gelöschten Inhalte in den vergangenen sechs Monaten sei so gefunden worden. Entwickler des Internet-Konzerns hätten auch Technologie entwickelt, die ein erneutes Hochladen bereits bekannter terroristischer Videos verhindere.

Facebook macht es vor

Auch Facebook gab vor wenigen Tagen bekannt, dass selbstlernende Maschinen stärker dafür eingesetzt werden, solche Inhalte gar nicht erst wieder auf die Plattform durchzulassen. Zudem werde an einem Algorithmus gearbeitet, der durch Textanalyse terroristische Propaganda erkennen solle.

Verstärkter Druck auf Firmen in Europa

Internet-Unternehmen stehen in Europa unter wachsendem Druck aus der Politik, härter gegen Terror-Inhalte vorzugehen. So erklärte die britische Premierministerin Theresa May nach dem jüngsten Attentat auf der London Bridge, Extremismus finde im Netz eine sichere Brutstätte - und die großen Internetunternehmen ließen dies zu. In Deutschland sieht ein Gesetzentwurf von Bundesjustizminister Heiko Maas (SPD) Strafen von bis zu 50 Millionen Euro vor, wenn Internet-Firmen illegale Inhalte nicht schnell genug löschen.

Das könnte auch interessant sein:

Digital Life 

Facebook Live: Morde, Schießereien, Vergewaltigungen

45 Delikte kamen bereits an die Öffentlichkeit. Teilweise gewollt, aber auch ungewollt.
45 Delikte kamen bereits an die Öffentlichkeit. Teilweise gewollt, aber auch ungewollt.
Foto: pexels

Seit etwa 19 Monaten können Facebook-Nutzer Live-Videos veröffentlichen. Monatlich befinden sich darunter im Durchschnitt 2.3 Misshandlungs-Videos.

Mehr lesen