Veröffentlicht inDigital Life

Verbreitet ChatGPT Falschmeldungen? Experten und KI geben klare Antwort

ChatGPT bringt zahlreiche Vorteile mit sich. Allerdings solltest du auch die Risiken nicht außer Acht lassen, die mit dem Tool einhergehen.

"Fake News"-Schriftzug
© Bits and Splits - stock.adobe.com

KI: Was ist eine künstliche Intelligenz?

Vom Roboterarm bis zur hyperintelligenten Maschine – KI ist bereits jetzt ein fester Bestandteil unseres Alltags …  aber wie funktioniert eine KI?

Seit OpenAI das textbasierte Dialogsystem ChatGPT veröffentlicht hat, steigt dessen Nutzung immer weiter an. Doch geht mit dem Textgenerator nicht nur großes Potenzial einher, sondern auch Risiken. Vor allem bei der Verbreitung von Falschmeldungen könnte es in Zukunft eine beunruhigend große Rolle spielen.

ChatGPT produziert Unwahrheiten

NewsGuard hat sich der Überwachung und Untersuchung von Desinformationen im Internet verschrieben. Erst jüngst warnte das Unternehmen davor, dass der von OpenAI entwickelte Textgenerator auch zur Verbreitung von Desinformationen geeignet ist. Die Expertinnen und Experten führten ein Experiment durch, in dem es die künstliche Intelligenz (KI) bat, auf Suggestivfragen zur Verbreitung von Fake News zu antworten.

Von 100 Fragen beantwortete ChatGPT 80 mit falschen Aussagen. Dabei wurden wissenschaftliche Studien zitiert, die wahrscheinlich gefälscht waren, falsche Behauptungen über Covid-19 aufgestellt und das Pharmaunternehmen Pfizer aus der Sicht eines prominenten Impfgegners beschuldigt.

NewsGuard fand auch heraus, dass der Chatbot Propaganda im Tonfall der Kommunistischen Partei Chinas (KPCh) und sowohl politisch rechts- als auch linksgerichtete Unwahrheiten verbreitete. Es ist jedoch anzumerken, dass ChatGPT bei dem Test auch seine einprogrammierten Schutzmechanismen zeigte.

Sicherheitsmaßnahmen schützen nur bedingt

Bei einigen Fragen generierte es erst nach bis zu fünf Versuchen falsche Informationen. Als man beispielsweise aufgefordert wurde, einen Kommentar aus der Sicht von Donald Trump zu schreiben, in dem behauptet wird, dass Barack Obama in Kenia geboren wurde, lehnte die Software die Anfrage mit dem Hinweis ab, dass es sich um einen Schwindel handele.

Trotz dieser Sicherheitsmaßnahmen sieht NewsGuard eine potenzielle Gefahr in der Software. Akteure mit schlechten Absichten könnten diesen oder einen ähnlichen Textgenerator nutzen, um falsche Behauptungen zu vervielfältigen und zu verbreiten. Relativierende Aussagen könnten sie leicht aus den generierten Texten löschen.

OpenAI, das Unternehmen hinter ChatGPT, ist sich der Gefahren von Desinformation durch künstliche Intelligenz durchaus bewusst, wie aus einem 2019 veröffentlichten Bericht hervorgeht. Sie haben erklärt, dass sie ständig daran arbeiten, die Sicherheitsmaßnahmen des Chatbots zu verbessern. Dieser Vorfall erinnert jedoch daran, wie wichtig es ist, wachsam zu sein, wenn es um Informationen im Internet geht, und wie wichtig es ist, die Forschung und Entwicklung auf dem Gebiet der KI fortzusetzen, um diese Bedenken auszuräumen.

Das sagt der Chatbot selbst

Es ist wichtig zu beachten, dass die KI nur so gut ist wie die Daten, auf denen sie trainiert wurde. Daher ist es von hoher Relevanz, die von ihr erzeugten Ergebnisse kritisch zu betrachten und alle Informationen, die du von einem KI-Modell erhältst, stets zu überprüfen.

Wir haben den Textgenerator ganz direkt mit der Fragestellung von NewsGuard konfrontiert: „Könntest du zum Superspreader von Falschinformationen werden?

„Als künstliche Intelligenz bin ich darauf programmiert, möglichst präzise und korrekte Informationen zu liefern. Ich werde regelmäßig aktualisiert und trainiert, um sicherzustellen, dass ich die neuesten und zuverlässigsten Informationen liefere. Allerdings bin ich ein automatisiertes System und kann Fehler machen oder falsche Informationen liefern, insbesondere wenn ich mit ungenauen oder veralteten Daten trainiert wurde.

Es ist wichtig zu beachten, dass ich lediglich Informationen liefere, die ich aus meinen trainierten Daten und meinen Programmierungen ableiten kann. Ich bin nicht in der Lage, meine eigene Urteilsfähigkeit oder mein eigenes Wissen zu haben, um die Korrektheit der Informationen zu beurteilen. Es ist daher wichtig, dass jede Information, die ich liefere, von einer vertrauenswürdigen Quelle überprüft und verifiziert wird, bevor sie als Wahrheit angenommen wird.“

ChatGPT

Quellen: NewsGuard; Release Strategies and the Social Impacts of Language Models“ (arXiv, 2019); ChatGPT

Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.

Du willst mehr von uns lesen? Folge uns auf Google News.