Veröffentlicht inDigital Life

Texte von ChatGPT: Kannst du Mensch und Maschine auseinanderhalten? Neues Tool soll helfen

Was ChatGPT schreibt, lässt sich kaum von menschlich verfassten Texten unterscheiden. Einem neu entwickelten Tool soll aber ebendies gelingen.

ChatGPT auf einem Smartphone
© Ascannio - stock.adobe.com

KI: Was ist eine künstliche Intelligenz?

Vom Roboterarm bis zur hyperintelligenten Maschine – KI ist bereits jetzt ein fester Bestandteil unseres Alltags …  aber wie funktioniert eine KI?

Mit der Veröffentlichung von ChatGPT ist dem 2015 gegründeten US-Unternehmen OpenAI ein wahrer Coup gelungen. Längst erfreut sich der Textgenerator großer Beliebtheit und findet in zahlreichen unterschiedlichen Gebieten Anwendung. Dabei lassen sich die von ihm verfassten Zeilen kaum von dem unterscheiden, was Menschen schreiben.

ChatGPT: Neues Tool soll Texte erkennen

Nun hat der Herausgeber der Webanwendung ein neues Werkzeug veröffentlicht, um die Unterscheidung zwischen Mensch und Maschine treffen zu können. Der Grund dafür liegt auf der Hand: Die Künstliche Intelligenz (KI) imitiert menschliche Sprache so gut, dass sie ohne Weiteres zum Schummeln bei Hausarbeiten oder gar Bachelor- beziehungsweise Masterarbeiten genutzt werden könnte.

Ein weiteres Risiko besteht in Falschmeldungen, die mittels ChatGPT gestreut werden könnten. Ein Problem besteht dem Handelsblatt zufolge darin, dass das OpenAI-Tool zur Erkennung von KI-generierten Texten bislang noch eher mittelmäßig funktioniere. Auch der Entwickler selbst ist sich der Grenzen seines neuen Programms durchaus bewusst.

„Unser Klassifikator hat eine Reihe von wichtigen Einschränkungen“, schrieb das mitunter durch Elon Musk und Microsoft finanzierte Unternehmen am Dienstag auf seinem Blog. „Er sollte nicht als primäres Entscheidungsinstrument verwendet werden, sondern als Ergänzung zu anderen Methoden zur Bestimmung der Quelle eines Textes.“

Grenzen des Klassifikators

Bislang sei der Klassifikator bei kurzen Texten von unter 1.000 Zeichen ausgesprochen unzuverlässig. Längere Texte würden selten, aber ebenfalls manchmal falsch eingestuft, so OpenAI. Von Menschen verfasste Sätze würden zudem hin und wieder fälschlicherweise ChatGPT zugeschrieben. Einige Probleme bestehen also noch immer.

„Wir empfehlen, den Klassifikator nur für englische Texte zu verwenden. In anderen Sprachen schneidet er deutlich schlechter ab und ist bei Code unzuverlässig“, heißt es in dem Eintrag. „Von KI geschriebener Text kann bearbeitet werden, um den Klassifikator zu umgehen. Klassifizierer wie der unsere können auf der Grundlage erfolgreicher Angriffe aktualisiert und neu trainiert werden, aber es ist unklar, ob die Erkennung auf lange Sicht einen Vorteil bietet.“

Quelle: Handelsblatt; OpenAI

Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.

Du willst mehr von uns lesen? Folge uns auf Google News.