Veröffentlicht inApps

WhatsApp: „Erschreckender Einblick“ – damit wird der Algorithmus gefüttert

Die künstliche Intelligenz (KI) der Anwendung kann Prompts in Bilder umwandeln. Im Fall des Wortes Palästina führte das Ergebnis zu Problemen.

Eine Person tippt eine Nachricht bei WhatsApp ein.
© Sara Michilin - stock.adobe.com

Die 10 besten Tipps für WhatsApp // IMTEST

Mit WhatsApp textet die Welt. Der Messenger kann aber viel mehr, als die meisten Nutzer wissen! Lesen Sie, was alles möglich ist.

Eine bekannte Funktion von WhatsApp, die Bilder als Antwort auf die Suchanfragen von Nutzerinnen und Nutzern generiert, wirft das Bild einer Waffe oder eines Jungen mit einer Waffe aus, wenn man die Begriffe „Palästinenser“, „Palästina“ oder „muslimischer Junge Palästinenser“ eingibt.

WhatsApp: Diese KI-Reaktion verwirrt

Wie der Guardian berichtet, variieren die entsprechenden Ergebnisse bei WhatsApp zwar, wenn sie von verschiedenen Personen ausprobiert werden. Man konnte mittels Screenshots und eigenen Tests aber dokumentieren, dass bei den genannten Suchbegriffen verschiedene Aufkleber mit Waffen generiert wurden.

So führte die Guardian-Suche nach „muslimischer Junge Palästinenser“ beispielsweise zu vier Bilder von Kindern. Ein Junge hält dabei eine AK-47-ähnliche Schusswaffe. Ein weiterer Versuch mit der Anfrage „Palästina“ ergab ein Bild mit einer Hand, die eine Waffe hält. Die Eingabe von „Hamas“ führte zu der Fehlermeldung „Konnte keine KI-Aufkleber generieren. Bitte versuchen Sie es erneut.“

Umgekehrt verursachte die Funktion keine der genannten fragwürdigen Bildergebnisse. So zeigte der Messenger bei der Eingabe von „israelischer Junge“ Karikaturen von Kindern, die Fußball spielen oder lesen. Auch als Antwort auf die Eingabe „israelische Armee“ erstellte die KI lediglich harmlose Zeichnungen. Darunter lächelnde oder betende Soldaten. Waffen wurden nicht abgebildet.

Lesetipp: So kannst du eine neue WhatsApp-Funktion im Status nutzen

Meta-Mitarbeiter eskalieren das Problem

Wie der Guardian weiter meldet, haben Mitarbeiter des Mutterkonzerns Meta das Problem bereits intern gemeldet und eskaliert. Das erklärte demnach eine Person, die mit den Diskussionen vertraut ist. Kevin McAlister, ein Sprecher von Meta, sagte laut dem Guardian, dass sich das Unternehmen des Problems bewusst sei.

Man gehe es bereits aktiv an: „Wie wir bereits bei der Einführung der Funktion gesagt haben, können die Modelle, wie bei allen generativen KI-Systemen, ungenaue oder unangemessene Ergebnisse liefern. Wir werden diese Funktionen weiter verbessern, wenn sie sich weiterentwickeln und mehr Menschen ihr Feedback geben.“

Starke Kritik am Vorgehen von WhatsApp und Meta

Als Reaktion auf die Berichterstattung des Guardian über die von der KI generierten Aufkleber forderte die australische Senatorin Mehreen Faruqi, stellvertretende Vorsitzende der Grünen, den Beauftragten für elektronische Sicherheit des Landes auf, „die rassistischen und islamfeindlichen Bilder, die von Meta erzeugt werden“ zu untersuchen.

„Die KI-Bilder von palästinensischen Kindern, die mit Waffen auf WhatsApp dargestellt werden, sind ein erschreckender Einblick in die rassistischen und islamfeindlichen Kriterien, mit denen der Algorithmus gefüttert wird“, sagte Faruqi in einer per E-Mail versandten Erklärung. „Wie viele rassistische ‚Bugs‘ müssen noch aufgedeckt werden, bevor ernsthafte Maßnahmen ergriffen werden? Der Schaden ist bereits angerichtet. Meta muss zur Rechenschaft gezogen werden.“

Quellen: Guardian

Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.

Du willst mehr von uns lesen? Folge uns auf Google News.