Veröffentlicht inDigital Life

ChatGPT: Diese 3 Sachen darfst du der KI niemals sagen

ChatGPT lädt zum Plaudern und gemeinsamen Brainstorming ein. Doch welche Infos du der KI besser nicht gibst, verrät nun ein Hacker.

ChatGPT auf dem Handy
© Tada Images - stock.adobe.com

4 Irrtümer aus dem Arbeitsrecht

Wir klären 4 Mythen aus dem Arbeitsrecht auf. Dieses Video wurde mit der Hilfe von KI erstellt und vor der Veröffentlichung von der Redaktion sorgfältig geprüft.

Der Hacker Johann Rehberger suchte bereits in mehreren Unternehmen nach Schwachstellen – und wurde dafür bezahlt. Erst testete er auf diese Weise Produkte von Microsoft. Nun arbeitet er in selber Funktion beim Spielegiganten Electronic Arts. Durch seine Faszination für Künstliche Intelligenz weiß er auch, welche theoretischen Gefahren ChatGPT birgt.

ChatGPT: Erschreckend einfach unterworfen

Der gelernte Informatiker erklärt im Gespräch mi Chip.de, auf welche Tücken wir uns in der regen Arbeit mit ChatGPT gefasst machen müssen. Das Basismodell und andere KI-Systeme dominieren inzwischen etliche Anwendungen und sind zum Beispiel Teil des Microsoft Edge-Browsers. Selbst Fernseher von Samsung sollen nun von KI profitieren.

Doch laut dem Experten sind die Systeme leicht auszutricksen und das sogar ohne in den Code einzudringen. Rehberger beschäftigt vor allem mit der sogenannten „Prompt Injection“. „Ein Angreifer kann ein Sprachmodell quasi ‚überreden‘, etwas anderes zu tun, als es eigentlich tun soll.“, erklärt er den Fachbegriff.

Kann zur Erpressung genutzt werden

Schwachstellen hat er bisher bei fast allen gängigen Systemen von OpenAI, Google, Amazon und Co. gefunden. Gelingt es einem böswilligen Angreifer oder einer Angreiferin die KI durch „Prompt Injection“ für sich gefügig zu machen, kann es für Nutzer*innen richtig gefährlich werden. Das gilt insbesondere dann, wenn das System mit weiteren – wie etwa einem E-Mail-Postfach – verknüpft ist.

„[Der Angreifer] könnte dem Nutzer Falschinformationen geben oder versuchen, ihn zu erpressen“, sobald er die Kontrolle über das KI-System hat, gibt Rehberger zu bedenken. Doch es gibt noch weit gewieftere Methoden, die mit einer anfänglichen Prompt Injection möglich sind. So könnte der Angreifer Informationen von User*innen ausspähen, wie etwa wichtige Passwörter, Zahlungsinformationen und Co.

Sage diese drei Dinge niemals der KI

Diese stammen in diesem Szenario beispielsweise direkt aus dem Verlauf mit ChatGPT oder aus Listen und Dokumenten, auf die ChatGPT durch Zugriff aufs kostenlose Mail-Postfach oder Programme wie Excel Zugriff hat. Zu deinem Schutz solltest du daher folgende Informationen niemals mit ChatGPT teilen:

  • Passwörter
  • Bankinginformationen und -Logins
  • Gesundheitsinformationen

Der letzte Punkt erscheint womöglich auf den ersten Blick bei den Haaren herbeigezogen. Doch kann ein Angreifer diese Angaben über dich nutzen, um dich beispielsweise zu erpressen oder mehr über deine Identität zu erfahren.

Übrigens: Nicht nur bei der privaten Nutzung solltest du darauf achten, welche Informationen du Chatbots wie ChatGPT gibst. Auch auf der Arbeit solltest du Vorsicht mit ChatGPT walten lassen.

Quelle: Chip.de

Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.

Du willst mehr von uns lesen? Folge uns auf Google News.