Veröffentlicht inDigital Life

„Ernsthafte Risiken“: Neue KI kann jetzt Stimmen klonen

Erst vor kurzem hat der ChatGPT-Entwickler OpenAI ein Programm zum Klonen von Stimmen vorgestellt. Nun warnt das Unternehmen bereits vor den Gefahren der KI-Stimmen.

Voice Engine wird auf einem Smartphone Display angezeigt.
© Getty Image / Future Publishing

KI: Was ist eine künstliche Intelligenz?

Vom Roboterarm bis zur hyperintelligenten Maschine – KI ist bereits jetzt ein fester Bestandteil unseres Alltags …  aber wie funktioniert eine KI?

Voice Engine benötigt nur einen 15-sekündigen Audioclip einer realen Person, um eine menschlich klingende Nachbildung dieser Stimme zu erzeugen. Die Nutzenden können diese Stimme alles Mögliche sagen lassen, auch in anderen Sprachen. Noch ist das Tool nicht für die Öffentlichkeit verfügbar, doch die Firma räumt bereits jetzt Bedenken hinsichtlich der KI-Stimmen ein.

OpenAi warnt vor Gefahren der KI-Stimmen

„Wir sind uns bewusst, dass die Erzeugung von Stimmen, die denen von Menschen ähneln, ernsthafte Risiken birgt“, heißt es in einem Blogeintrag von OpenAI, in dem die Ergebnisse der Testphase des Programms vorgestellt wurden. Vor allem die Angst vor der Verbreitung gezielter Falschinformationen scheint mit der Entwicklung der KI-Stimmen zu wachsen.

Insbesondere im Blick auf das jetzige Wahljahr, in dem unter anderem Europawahlen und die US-Präsidentschaftswahl stattfinden, warnt die IT-Firma vor dem Missbrauch der KI-Stimmen und will diesem schon jetzt vorbeugen. „Wir arbeiten mit amerikanischen und internationalen Partnern aus den Bereichen Regierung, Medien, Unterhaltung, Bildung, Zivilgesellschaft und darüber hinaus zusammen, um ihr Feedback in unsere Entwicklung einzubeziehen“, so Open AI in ihrem Statement.

Lesetipp: Samsung Galaxy: Großes KI-Update

Voice Engine zunächst nur für ausgewählte Zielgruppen zugänglich

OpenAI betont, es werde strenge Richtlinien geben, um Voice Engine zu nutzen. Diese sehen unter anderem die ausdrückliche Zustimmung jedes Menschen vor, dessen Stimme mit dem Programm dupliziert wird. Darüber hinaus müssen Zuhörende informiert werden, dass die Stimme von KI generiert wurde. Vor allem aber macht die Firma das Tool nur ausgewählten Zielgruppen zugänglich.

Außerdem drängt das US-Unternehmen politische Entscheidungstragende und Entwickelnde dazu, Maßnahmen zu ergreifen, um einen gefährlichen Missbrauch der KI-Stimmen zu verhindern. OpenAI schlug beispielsweise vor, eine „No-Go-Voice-Liste“ zu erstellen, um die unbefugte Replikation prominenter Stimmen, wie zum Beispiel von Politiker*innen, zu verhindern.

Quellen: OpenAI

Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.

Du willst mehr von uns lesen? Folge uns auf Google News.