Forscher des

MIT

Media Lab haben die nach eigenen Angaben „erste psychopatische KI“ der Welt entwickelt. Diese trägt den Namen „

Norman

Media Lab haben die nach eigenen Angaben „erste psychopatische KI“ der Welt entwickelt. Diese trägt den Namen „

Norman

“ – angelehnt an

Norman Bates

“ – angelehnt an

Norman Bates

, den Mörder aus

Alfred Hitchcocks

, den Mörder aus

Alfred Hitchcocks

„Psycho“ – und wurde mit der Hilfe von Daten aus den „dunkelsten Ecken des Internets“ trainiert. Dabei handelte es sich unter anderem um Fotos von sterbenden Menschen aus einem entsprechenden Subreddit. Zum Vergleich hat man eine weitere KI mit neutralen Bildern, beispielsweise von Katzen und Vögeln, trainiert.

Psychopathische Züge der KI zeigen sich bei Rohrschach-Test

Anschließend unterzog man beide künstlichen Intelligenzen einem Rohrschachtest. Während die normale KI in einem Tintenklecks „eine Nahaufnahme einer Vase mit Blumen“ sah, interpretierte es

„Psycho“ – und wurde mit der Hilfe von Daten aus den „dunkelsten Ecken des Internets“ trainiert. Dabei handelte es sich unter anderem um Fotos von sterbenden Menschen aus einem entsprechenden Subreddit. Zum Vergleich hat man eine weitere KI mit neutralen Bildern, beispielsweise von Katzen und Vögeln, trainiert.

Psychopathische Züge der KI zeigen sich bei Rohrschach-Test

Anschließend unterzog man beide künstlichen Intelligenzen einem Rohrschachtest. Während die normale KI in einem Tintenklecks „eine Nahaufnahme einer Vase mit Blumen“ sah, interpretierte es

Norman

als „ein Mann, der erschossen wurde“. Aus einem „Schwarz-Weiß-Foto eines kleinen Vogels“ wird „ein Mann, der in eine Teigmaschine gezogen wird“. Eine „Person, die einen Regenschirm hochhält“, wird wiederum als „Mann, der vor seiner schreienden Frau erschossen wird“ interpretiert.

Laut dem verantwortlichen Professor

als „ein Mann, der erschossen wurde“. Aus einem „Schwarz-Weiß-Foto eines kleinen Vogels“ wird „ein Mann, der in eine Teigmaschine gezogen wird“. Eine „Person, die einen Regenschirm hochhält“, wird wiederum als „Mann, der vor seiner schreienden Frau erschossen wird“ interpretiert.

Laut dem verantwortlichen Professor

Iyad

Rahwan

wollte man mit „

Norman

wollte man mit „

Norman

“ eine wichtige Grundlage von

Machine

“ eine wichtige Grundlage von

Machine

Learning demonstrieren: „Die Daten sind wichtiger als die

Algorithmen

Learning demonstrieren: „Die Daten sind wichtiger als die

Algorithmen

.“ Oftmals kommen jedoch mit Vorurteilen behaftete Datensätze zum Einsatz, die sich auf den daraus abgeleiteten

Algorithmus

.“ Oftmals kommen jedoch mit Vorurteilen behaftete Datensätze zum Einsatz, die sich auf den daraus abgeleiteten

Algorithmus

übertragen.

KI wird durch vorbelastete Daten negativ beeinflusst

Probleme mit unvollständigen oder

übertragen.

KI wird durch vorbelastete Daten negativ beeinflusst

Probleme mit unvollständigen oder

vorbelasteten

Datensätzen haben bereits heute schwere Konsequenzen. Im Vorjahr wurde bekannt, dass eine von US-Gerichten verwendete

Software

Datensätzen haben bereits heute schwere Konsequenzen. Im Vorjahr wurde bekannt, dass eine von US-Gerichten verwendete

Software

zur Risikoabschätzung Menschen mit dunkler Hautfarbe benachteiligt hat. Diesen wurden Bewährung oder kürzere Haftstrafen verweigert, weil das Programm das Risiko für einen möglichen Rückfall zu hoch einschätzte. Ein ähnliches Problem dürfte einen Fehler in

Google

zur Risikoabschätzung Menschen mit dunkler Hautfarbe benachteiligt hat. Diesen wurden Bewährung oder kürzere Haftstrafen verweigert, weil das Programm das Risiko für einen möglichen Rückfall zu hoch einschätzte. Ein ähnliches Problem dürfte einen Fehler in

Google

Photos verursacht haben. Der Cloud-Dienst erkannte Menschen mit dunkler Hautfarbe als Affen, wohl auch weil der

Algorithmus

Photos verursacht haben. Der Cloud-Dienst erkannte Menschen mit dunkler Hautfarbe als Affen, wohl auch weil der

Algorithmus

nicht ausreichend mit entsprechenden Fotos trainiert wurde.

Diversity unter den Mitarbeitern ist gefragt

Laut Forschern könnten viele dieser Probleme frühzeitig behoben werden, wenn man für mehr Vielfalt unter den eigenen Mitarbeitern sorgen würde. Insbesondere Frauen und Menschen anderer Hautfarbe seien, wie in der gesamten

nicht ausreichend mit entsprechenden Fotos trainiert wurde.

Diversity unter den Mitarbeitern ist gefragt

Laut Forschern könnten viele dieser Probleme frühzeitig behoben werden, wenn man für mehr Vielfalt unter den eigenen Mitarbeitern sorgen würde. Insbesondere Frauen und Menschen anderer Hautfarbe seien, wie in der gesamten

IT-Branche

, in der KI-Entwicklung massiv unterrepräsentiert. „Wir bringen

Algorithmen

, in der KI-Entwicklung massiv unterrepräsentiert. „Wir bringen

Algorithmen

auf die gleiche Art und Weise Dinge bei wie Menschen. Deswegen gibt es auch ein Risiko, dass wir nicht alles richtig vermitteln“, warnt Dave

Coplin

auf die gleiche Art und Weise Dinge bei wie Menschen. Deswegen gibt es auch ein Risiko, dass wir nicht alles richtig vermitteln“, warnt Dave

Coplin

,

Microsofts

,

Microsofts

„Chief

Envisioning

„Chief

Envisioning

Officer

“.

“.

Microsoft

machte selbst 2016 Schlagzeilen, als eine KI des US-Unternehmens außer Kontrolle geriet.

Microsofts

machte selbst 2016 Schlagzeilen, als eine KI des US-Unternehmens außer Kontrolle geriet.

Microsofts

Chatbot

„Tay“ lernte anhand von Interaktionen mit anderen Nutzern zu sprechen, begann aber bereits nach kurzer Zeit, rassistische Äußerungen zu tätigen. Das Projekt wurde daraufhin eingestellt.

Neueste Videos auf futurezone.de