Veröffentlicht inScience

„Wir werden alle sterben“: Forscher warnt vor schon eingeleitetem Ende der Menschheit

Der KI-Forscher Eliezer Yudkowsky gilt als jemand, der künstliche Intelligenz verdammt. Das Ende der Menschheit dadurch hält er für mehr als möglich.

Weltuntergangsszenario
© XtravaganT - stock.adobe.com

KI: Was ist eine künstliche Intelligenz?

Vom Roboterarm bis zur hyperintelligenten Maschine – KI ist bereits jetzt ein fester Bestandteil unseres Alltags …  aber wie funktioniert eine KI?

Der kontroverse Wissenschaftler unterhielt sich im Bloomberg-Format „AI IRL“ mit den Moderator*innen Nate Lanxton und Jackie Davalos über den aktuellen Stand und die Zukunft Künstlicher Intelligenz (KI). Dabei hatte er keine positiven Worte für die technologische Entwicklung übrig. In seinen Augen wird sie sogar zum Ende der Menschheit führen.

Ende der Menschheit durch KI: „Wir wissen nicht, was wir tun“

Während die KI-Entwicklung und Integration in den Alltag vieler weiter an Fahrt aufnimmt, warnen einige Expert*innen und Tech-Größen bereits seit langem vor potenziellen Gefahren. Dazu gehört auch Yudkowsky, der das Ende der Menschheit dadurch bereits als eingeleitet betrachtet. Das zumindest erklärte der als „KI-Doomer“ vorgestellte Experte in einem Gespräch gegenüber Bloomberg.

„Wo wir sind, ist aufregend. Wohin wir uns bewegen, ist deutlich wichtiger als das. Wir sind von GPT-2 zu GPT-3 zu GPT-4 gegangen. Mit GPT-4 ist es für viele Menschen offensichtlich geworden, dass wir uns in eine interessante Richtung bewegen. Es ging etwas weiter als ich es erwartet hatte. Und was aus GPT-5, GPT-6, GPT-7 wird, selbst wenn diese Technologie die nächsten Wellen an Technologie hinauszögert … Ich denke, es wird klüger als wir. Ich denke, wir sind nicht bereit. Ich denke, wir wissen nicht, was wir tun. Und ich denke, wir werden alle sterben.“

Auf die Frage, wie Experten die Öffentlichkeit dazu bringen können, die Bedrohung durch künstliche Intelligenz ernst zu nehmen, sagte Yudkowsky, dass Menschen durch Programme wie ChatGPT frühe Versionen von KI in Aktion sehen müssen: „Nachdem die Leute ChatGPT gesehen hatten, sagten sie: ‚Oh, ok. Das ist kein Film. Das ist echt. Das fängt an zu passieren. Einige Leute meinten: ‚Oh, dieses Ding ist eindeutig noch nicht schlau genug, um alle zu töten, also kann das niemals passieren.‘ Ich kann mir nicht vorstellen, dass das so abläuft, dass die Leute es einfach nicht merken.“

Lesetipp: Beschämendes Ende der Menschheit prognostiziert

Fortschritt ja, KI nein

Yudkowsky erklärte, er sei generell für Experimente und Fortschritt, warnte aber davor, dass die KI im Gegensatz zur Nukleartechnologie in der Lage sei, zum Ende der Menschheit zu führen. So würde schon ein kleiner Fehler ausreichen, um verheerende Folgen nach sich zu ziehen.

„Wenn es um künstliche Intelligenz oder die Erforschung von Funktionsgewinnen in der Biologie geht … das sind Bereiche, in denen man einen kleinen Fehler macht und vielleicht ist niemand mehr da, der daraus lernen könnte, weil alle tot sind. Ich denke, das ist ein anderer und besonderer Fall“, sagte er.

Auf die Frage, ob es einen Punkt ohne Wiederkehr gibt, wenn es um KI geht, gab Yudkowsky einen eher schwachen Trost: „Wenn ihr alle noch am Leben seid, habt ihr den Punkt, an dem es kein Zurück mehr gibt, noch nicht erreicht. Wo es Leben gibt, gibt es auch Hoffnung. Wir könnten alle morgen aufwachen und beschließen, dies nicht zu tun. Das ist nicht sehr viel Hoffnung. Ich bin nicht bereit, allein zu entscheiden, dass die Menschheit deswegen keinen Selbstmord begehen wird. Es ist nicht meine Aufgabe, das zu entscheiden.“

Quellen: Bloomberg „AI IRL“

Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.

Du willst mehr von uns lesen? Folge uns auf Google News.