Veröffentlicht inDigital Life

Wie Roboter unsere Ängste schüren

Für die Entwicklung von Künstlicher Intelligenz und Maschinen, denen diese innewohnt, gibt es Experten zufolge diverse Szenarios. Manche sind positiv, andere erschreckend.

Mann setzt Roboter Gesicht auf
Roboter und KI gehen zunehmend Hand in Hand. Das kann befremdlich wirken und Ängste befeuern. Es soll jedoch auch Chance schaffen. Foto: FRED DUFOUR/ AFP/ Getty Images

Die Themen künstliche Intelligenz und Robotik gehen Hand in Hand. In vielen popkulturellen Zukunftsvisionen agieren menschenähnliche Cyborgs – vom hilfsbereiten Mr. Data bis zu den rebellierenden Robotern aus Westworld. Am 19. April wird beim 4Gamechangers Festival (zum Programm) das breite Spektrum der künstlichen Intelligenz und Robotik in mehreren Sessions mit internationalen Panel-Teilnehmern behandelt.

Stehlen Roboter in Zukunft unsere Jobs?

Während sich zahlreiche Unternehmen begeistert von den Möglichkeiten durch künstliche Intelligenz (KI) zeigen, gibt es auch viel Skepsis. Wirtschaftsforscher befeuern Ängste, dass die künstliche Intelligenz Arbeitsplätze kosten wird. Der Philosoph Richard David Precht, der am Panel „AI and humans at work – who is the boss?“ teilnimmt, vermutet, dass die Hälfte der Arbeitsplätze in der westlichen Welt bis 2030 entfallen könnte.

Aber ist das zwangsläufig schlecht? Was, wenn hauptsächlich Jobs entfallen, die ohnehin niemand machen möchte und dadurch mehr „menschliche Ressourcen“ frei werden, die in Bereichen wie Pflege, Gesundheitssystem oder Bildung genutzt werden können? Anstatt eine Dystopie herbeizufürchten, gilt es vielmehr sich auf eine Zeit vorzubereiten, in der Menschen und Maschinen nebeneinander und zusammen arbeiten.

Mann setzt Roboter Gesicht auf

Wie Roboter unsere Ängste schüren

Für die Entwicklung von Künstlicher Intelligenz und Maschinen, denen diese innewohnt, gibt es Experten zufolge diverse Szenarios. Manche sind positiv, andere erschreckend.

Wird sich Künstliche Intelligenz wie Terminators Skynet verhalten?

Das Drängen auf diese Vorbereitung hat prominente Unterstützer. Der verstorbene Astrophysiker Stephen Hawking mahnte im November 2017, dass KI das „schlimmste Ereignis in der Geschichte unserer Zivilisation“ sein könnte, wenn die Entwicklung nicht kontrolliert wird. Elon Musk, CEO von Tesla und SpaceX, vermutet, dass der Dritte Weltkrieg von einer KI gestartet werden könnte.

Diese Befürchtung erinnert an das Szenario aus Terminator, bei dem Skynet beschließt die Menschheit auszulöschen und WarGames, bei dem ein lernender Computer der US-Armee einen atomaren Erstschlag auf die Sowjetunion initialisiert. Ob das wirklich passieren könnte, wird bei dem Panel „Will AI kill us?“ diskutiert. Die Seite der KI wird im Panel durch den Roboter Sophia vertreten.

An dieser Stelle befindet sich ein externer Inhalt von YouTube, der von unserer Redaktion empfohlen wird. Er ergänzt den Artikel und kann mit einem Klick angezeigt und wieder ausgeblendet werden.

Ich bin damit einverstanden, dass mir dieser externe Inhalt angezeigt wird. Es können dabei personenbezogene Daten an den Anbieter des Inhalts und Drittdienste übermittelt werden.

Entwickelt sich KI ohne Ethik zum Terroristen?

Ihr gegenüber steht der KI-Kritiker Jay Tuck, der mehrere Jahrzehnte als investigativer Journalist und Kriegsberichterstatter gearbeitet hat. Sollten die Militärs der Welt ihren Willen durchsetzen, werden KI-gesteuerte Kriegsmaschinen bald selbstständig entscheiden, wann welches Ziel angegriffen wird. Das ist schnell, effizient, präzise. Denn die KI schläft nicht, isst nicht und muss keiner Befehlskette folgen.

Wie soll also verhindert werden, dass die KI zum Terroristen wird, falls sie etwa entscheidet, dass der Angriff auf ein ziviles Ziel schneller zum gewünschten Ergebnis führt als auf Militärisches? Man müsste der KI Ethik einprogrammieren. Aber können wir darauf vertrauen, dass das wirklich passiert? Schließlich war es die jetzt führende IT-Nation, die bisher als einziges Land der Welt Atombomben im Krieg eingesetzt hat, um diesen „schneller zu beenden“. Deshalb wird befürchtet, dass es auch bei der KI-Entwicklung heißt: Im Krieg und der Liebe ist alles erlaubt.

Gehört Sex mit einem Roboter bald zum Alltag?

Ob in der (Roboter-)Liebe tatsächlich alles erlaubt ist, wird in der Session „The future of sex: love in times of the robot“ thematisiert. Mehrere Unternehmen wetteifern darum, den menschenähnlichsten Sexroboter zu bauen. Der bekannteste Branchenvertreter ist Realbotix, eine Tochterfirma des Sexpuppen-Herstellers Realdoll. Guile Lindroth, verantwortlich für die KI-Entwicklung bei Realbotix, wird am Panel teilnehmen.

Realbotix sagte bereits früher, dass es nicht zwingend um Sex gehe. Es gebe auch etliche Besitzer von Realdolls, die ihre Puppen nicht einfach nach dem Beischlaf in den Schrank stellen, sondern sie wie Lebenspartner behandeln. Das Realbotix-Upgrade, das die Sexpuppen mit einem Roboterkopf ausstattet der ihr Mimik, Spracherkennung und Sprachausgabe verleiht, würde diese Illusion verstärken und könnte etwa einsame Menschen vor Depressionen bewahren.

————————

Das könnte auch interessant sein:

————————

Kritiker sehen die aktuelle Entwicklung von Sexrobotern als problematisch. Es würden keine künstlichen Partner erschaffen, sondern Liebespuppen, die programmiert sind, stets willig zu sein, unabhängig davon, wie sie vom Besitzer behandelt werden. Panel-Teilnehmerin Nika Mahnic ist Mitglied der „Campaign against Sex-Robots“. Dabei geht es nicht darum Roboterrechte zu vertreten, sondern aufzuzeigen, welche gesellschaftlichen Probleme die Sexroboter mit sich bringen können. Dazu gehören die Förderung einer Vergewaltigungskultur und der Misogynie. „Ich glaube, dass es gute Nutzen von KI und Robotern gibt, aber die Industrie ist mehrheitlich vom Profit getrieben und nicht davon, Gutes für die Gesellschaft zu tun“, sagt Mahnic.

Du willst mehr von uns lesen? Folge uns auf Google News.