Veröffentlicht inScience

Forscher warnen: Eine Entwicklung muss pausiert werden – „Gefahren für Gesellschaft und Menschheit“

Künstliche Intelligenz bringt etliche Chancen mit sich. Nun aber warnen Forschende vor allem vor den Gefahren, die mit ihr einhergehen.

ChatGPT im Browser
© IB Photography - stock.adobe.com

KI: Was ist eine künstliche Intelligenz?

Vom Roboterarm bis zur hyperintelligenten Maschine – KI ist bereits jetzt ein fester Bestandteil unseres Alltags …  aber wie funktioniert eine KI?

Ein offener Brief, in dem eine sechsmonatige Pause bei der Entwicklung großer KI-Systeme gefordert wird, wurde von einer Gruppe namhafter Expertinnen und Experten auf den Gebieten der Technologie und insbesondere der Künstlichen Intelligenz (KI) unterzeichnet. Zu den Unterzeichnern gehören bekannte Namen wie Yuval Noah Harari, Steve Wozniak und Elon Musk.

Künstliche Intelligenz: Forscher warnen vor Risiken

Der vom gemeinnützigen Future of Life Institute veröffentlichte Brief äußert sich besorgt über die „tiefgreifenden Gefahren für die Gesellschaft und die Menschheit“, die durch die Entwicklung maschineller Lernsysteme entstehen. Besonders hoch seien diese Risiken, wenn sich diese Systeme dem menschlichen Verständnis, der Vorhersage oder der Kontrolle entzögen.

Die Unterzeichnenden fordern alle Labore für Künstliche Intelligenz auf, das Training von Systemen einzustellen, die leistungsfähiger sind als GPT-4. Die Pause sollte öffentlich und überprüfbar sein und alle Schlüsselakteure umfassen. Wenn eine Pause nicht schnell erlassen werden könne, sollten die Regierungen ein Moratorium einführen.

Sie schreiben: „KI-Labore und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliche KI-Designs und -Entwicklungen zu entwickeln und umzusetzen, die von unabhängigen externen Experten streng geprüft und überwacht werden.“

Umdenken gefordert

Es ist unwahrscheinlich, dass der Brief unmittelbare Auswirkungen auf das aktuelle Klima in der KI-Forschung haben wird. Technologieunternehmen haben sich beeilt, neue Produkte einzusetzen, oft auf Kosten von Sicherheit und Ethik. Er stellt jedoch einen wachsenden Widerstand dar und könnte möglicherweise zu politischen Maßnahmen zur KI-Sicherheit führen.

Die Forderung nach einer Pause spiegelt die Besorgnis über die potenziellen Risiken der KI wider, wie etwa die Verdrängung von Arbeitsplätzen, Datenschutzverletzungen und das Potenzial für autonome Waffen. Während künstliche Intelligenz das Potenzial hat, der Gesellschaft erhebliche Vorteile zu bringen, argumentieren die Unterzeichnenden, dass diese Risiken angegangen werden müssen, bevor groß angelegte Systeme entwickelt und eingesetzt werden.

„Die Menschheit kann mit KI eine blühende Zukunft erleben. Nachdem es uns gelungen ist, leistungsfähige KI-Systeme zu schaffen, können wir nun einen „KI-Sommer“ genießen, in dem wir die Früchte ernten, diese Systeme zum eindeutigen Nutzen aller entwickeln und der Gesellschaft eine Chance zur Anpassung geben. Die Gesellschaft hat bei anderen Technologien mit potenziell katastrophalen Auswirkungen auf die Gesellschaft eine Pause eingelegt. Das können wir auch hier tun. Genießen wir einen langen KI-Sommer und stürzen wir uns nicht unvorbereitet in den Herbst.“

Pause Giant AI Experiments: An Open Letter

Wer sind die Unterzeichnenden?

  • Yoshua Bengio, Gründer und wissenschaftlicher Direktor von Mila, Gewinner des Turing-Preises und Professor an der Universität Montreal
  • Stuart Russell, Berkeley, Professor für Informatik, Direktor des Zentrums für Intelligente Systeme und Mitautor des Standardlehrbuchs „Künstliche Intelligenz: Ein moderner Ansatz“
  • Elon Musk, CEO von SpaceX, Tesla und Twitter
  • Steve Wozniak, Mitbegründer von Apple
  • Yuval Noah Harari, Autor und Professor an der Hebräischen Universität von Jerusalem
  • Andrew Yang, Forward Party, Co-Vorsitzender, US-Präsidentschaftskandidat 2020, NYT-Bestsellerautor, Präsidentschaftsbotschafter für globales Unternehmertum
  • Connor Leahy, Geschäftsführer Conjecture
  • Jaan Tallinn, Mitbegründer von Skype, Zentrum für das Studium existenzieller Risiken, Future of Life Institute
  • Evan Sharp, Mitbegründer von Pinterest
  • Chris Larsen, Mitbegründer von Ripple
  • Emad Mostaque, Geschäftsführer von Stability AI
  • Valerie Pisano, Präsidentin und Geschäftsführerin von MILA
  • John J. Hopfield, Princeton University, emeritierter Professor, Erfinder der assoziativen neuronalen Netze

… und 1.110 weitere Größen aus Industrie und Forschung.

Quelle: „Pause Giant AI Experiments: An Open Letter“ (Future of Life Institute, 2023)

Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.

Du willst mehr von uns lesen? Folge uns auf Google News.