Zum Inhalt springen
Startseite » Warum denkt sich ChatGPT Fakten aus?

Warum denkt sich ChatGPT Fakten aus?

Der Chatbot ChatGPT gilt als die wohl am schnellsten wachsende App aller Zeiten. Längst wird der KI-Textgenerator für Hausaufgaben oder die Recherche für den nächsten Urlaub eingesetzt. Die Reaktionen auf ChatGPT können nicht gegensätzlicher sein: sie reichen von Begeisterung bis Entsetzen.

Coverbild mit Victoria Graul und den Interviewgästen Inna Vogel und Martin Steinebach vom Fraunhofer-Institut für Sichere Informationstechnologie SIT

Besonders kritisch wird da auf die Verbreitung von Desinformation geguckt. Zum einen, weil es Fake-News-Produzent*innen nun noch einfacher gemacht wird, aus Bruchstücken von Falschnachrichten ganze Artikel schnell und unkompliziert zu generieren. Zum anderen erstellt die KI – ohne dass der Verfasser willentlich schaden will – auch Texte, die plausibel klingen, aber falsche Tatsachen beinhalten.

Warum denkt sich ChatGPT Fakten scheinbar aus? Wie geht man damit um? Lösen Internet Plugins oder KI-Detektoren das Problem? Darüber spricht Victoria mit Inna Vogel und Martin Steinebach vom Fraunhofer-Institut für Sichere Informationstechnologie SIT. Die beiden forschen an Möglichkeiten, die helfen, mit ChatGPT erstellte Texte automatisch zu erkennen.

Credits: Musik „Digga Fake Theme Song“ von Alexey Potiy | Fotos von Alexander Bley und Fraunhofer SIT