Der KI-Textgenerator erstellt auch Texte, die plausibel klingen, aber falsche Tatsachen beinhalten. Lösen Internet Plugins oder KI-Detektoren das Problem?
30. Juli 2023
S03E08 – Darum geht’s
Der Chatbot ChatGPT gilt als die wohl am schnellsten wachsende App aller Zeiten. Längst wird der KI-Textgenerator für Hausaufgaben oder die Recherche für den nächsten Urlaub eingesetzt. Die Reaktionen auf ChatGPT können nicht gegensätzlicher sein: sie reichen von Begeisterung bis Entsetzen.
Besonders kritisch wird da auf die Verbreitung von Desinformation geguckt. Zum einen, weil es Fake-News-Produzent*innen nun noch einfacher gemacht wird, aus Bruchstücken von Falschnachrichten ganze Artikel schnell und unkompliziert zu generieren. Zum anderen erstellt die KI – ohne dass der Verfasser willentlich schaden will – auch Texte, die plausibel klingen, aber falsche Tatsachen beinhalten.
Gäste: Inna Vogel und Martin Steinebach vom Fraunhofer-Institut für Sichere Informationstechnologie SIT
Warum denkt sich ChatGPT Fakten scheinbar aus? Wie geht man damit um? Lösen Internet Plugins oder KI-Detektoren das Problem? Darüber spricht Victoria mit Inna Vogel und Martin Steinebach vom Fraunhofer-Institut für Sichere Informationstechnologie SIT. Die beiden forschen an Möglichkeiten, die helfen, mit ChatGPT erstellte Texte automatisch zu erkennen.
Shownotes und Quellen
Credits: Musik „Digga Fake Theme Song“ von Alexey Potiy | Fotos von Alexander Bley und Fraunhofer SIT
Quelle vom Fake-News-Quiz: https://twitter.com/nowhere_diary/status/1647520642671996930,
Meldung „KI-Software ChatGPT knackt Rekord beim Benutzerwachstum“ vom 02.02.2023 auf deutschlandfunkkultur.de, abrufbar unter https://www.deutschlandfunkkultur.de/ki-software-chatgpt-knackt-rekord-beim-benutzerwachstum-100.html