Veröffentlicht inScience

Forscher treiben KI mit den Bildern von Toten in den Wahnsinn

„Norman“ ist eine künstliche Intelligenz, die psychopathische Züge hat. Sie soll die Gefahren der Daten hinter den Algorithmen demonstrieren.

Zeichnung des Chrakters Norman Bates aus dem Film Psycho
Norman heißt die psychopathische KI; nach dem Killer Norman Bates aus Alfred Hitchcocks Film "Psycho" Foto: imago/ ZUMA Press

Forscher des

MIT

Media Lab haben die nach eigenen Angaben „erste psychopatische KI“ der Welt entwickelt. Diese trägt den Namen „

Norman

“ – angelehnt an

Norman Bates

, den Mörder aus

Alfred Hitchcocks

„Psycho“ – und wurde mit der Hilfe von Daten aus den „dunkelsten Ecken des Internets“ trainiert. Dabei handelte es sich unter anderem um Fotos von sterbenden Menschen aus einem entsprechenden Subreddit. Zum Vergleich hat man eine weitere KI mit neutralen Bildern, beispielsweise von Katzen und Vögeln, trainiert.

Psychopathische Züge der KI zeigen sich bei Rohrschach-Test

Anschließend unterzog man beide künstlichen Intelligenzen einem Rohrschachtest. Während die normale KI in einem Tintenklecks „eine Nahaufnahme einer Vase mit Blumen“ sah, interpretierte es

Norman

als „ein Mann, der erschossen wurde“. Aus einem „Schwarz-Weiß-Foto eines kleinen Vogels“ wird „ein Mann, der in eine Teigmaschine gezogen wird“. Eine „Person, die einen Regenschirm hochhält“, wird wiederum als „Mann, der vor seiner schreienden Frau erschossen wird“ interpretiert.

Laut dem verantwortlichen Professor

Iyad

Rahwan

wollte man mit „

Norman

“ eine wichtige Grundlage von

Machine

Learning demonstrieren: „Die Daten sind wichtiger als die

Algorithmen

.“ Oftmals kommen jedoch mit Vorurteilen behaftete Datensätze zum Einsatz, die sich auf den daraus abgeleiteten

Algorithmus

übertragen.

KI wird durch vorbelastete Daten negativ beeinflusst

Probleme mit unvollständigen oder

vorbelasteten

Datensätzen haben bereits heute schwere Konsequenzen. Im Vorjahr wurde bekannt, dass eine von US-Gerichten verwendete

Software

zur Risikoabschätzung Menschen mit dunkler Hautfarbe benachteiligt hat. Diesen wurden Bewährung oder kürzere Haftstrafen verweigert, weil das Programm das Risiko für einen möglichen Rückfall zu hoch einschätzte. Ein ähnliches Problem dürfte einen Fehler in

Google

Photos verursacht haben. Der Cloud-Dienst erkannte Menschen mit dunkler Hautfarbe als Affen, wohl auch weil der

Algorithmus

nicht ausreichend mit entsprechenden Fotos trainiert wurde.

Diversity unter den Mitarbeitern ist gefragt

Laut Forschern könnten viele dieser Probleme frühzeitig behoben werden, wenn man für mehr Vielfalt unter den eigenen Mitarbeitern sorgen würde. Insbesondere Frauen und Menschen anderer Hautfarbe seien, wie in der gesamten

IT-Branche

, in der KI-Entwicklung massiv unterrepräsentiert. „Wir bringen

Algorithmen

auf die gleiche Art und Weise Dinge bei wie Menschen. Deswegen gibt es auch ein Risiko, dass wir nicht alles richtig vermitteln“, warnt Dave

Coplin

,

Microsofts

„Chief

Envisioning

Officer

“.

Microsoft

machte selbst 2016 Schlagzeilen, als eine KI des US-Unternehmens außer Kontrolle geriet.

Microsofts

Chatbot

„Tay“ lernte anhand von Interaktionen mit anderen Nutzern zu sprechen, begann aber bereits nach kurzer Zeit, rassistische Äußerungen zu tätigen. Das Projekt wurde daraufhin eingestellt.

Du willst mehr von uns lesen? Folge uns auf Google News.