Zum Inhalt springen

Deepfakes im Video-Call: Was live ist, muss doch echt sein!

Mit Künstlicher Intelligenz generierte Videos wirken in vielen Fällen täuschend echt. In Live-Schalten ist das besonders tückisch.

STAFFEL 3 EPISODE 2 ~~~~~

Veröffentlichung: 29. November 2022

Gast: Agnieszka Walorska, Tech-Unternehmerin und Co-Host vom „Zurück zur Zukunft“-Podcast

Face Swap Apps oder Gesichtsfilter für Social Media sind beliebt, günstig und eine schöne Spielerei. Dahinter verbirgt sich die Deepfake-Technologie, bei der Künstliche Intelligenz zum Einsatz kommt.

Im Live-Bereich – also bei Anrufen, Videochats und Online-Meetings – sind Deepfakes auf dem Vormarsch. Die Gründe liegen auf der Hand: Die Technologie entwickelt sich rasant weiter, wobei auch die Zugänglichkeit für Smartphones und Co. steigt.

In den vergangenen Monaten gab es auch wieder Fälle in der Politik, durch die das Thema eine neue Brisanz bekommen hat und durch die der schädliche Umgang betont wird. Der Anruf von Fake-Klitschko bei Berlins Bürgermeisterin Franziska Giffey steht in der Bekanntheitsliste ganz oben – obwohl es sich dabei um einen sogenannten Cheap-Fake handelt. Im Unterschied zu Deepfakes wird hier auf den Einsatz von Künstlicher Intelligenz verzichtet und etwa mit einfacher Software für Bild- und Videobearbeitung gearbeitet.

Warum wir auf Deepfakes in Live-Videos hereinfallen

Weil Deepfakes in vielen Fällen täuschend echt aussehen, können sie in Live-Situationen aber besonders tückisch sein. Denn wer sich vor der Kamera von Fake-Freunden und Fake-Family verarschen lässt, ist anfällig für Identitätsdiebstahl und öffentliche Bloßstellung.

In der Podcast-Folge werden Fragen geklärt, wie etwa: Woran sind Deepfakes zu erkennen? Welche Manipulations-Techniken existieren generell bei Video-Anrufen? Wie verhält man sich während des Gesprächs? Im Zweifel auflegen, empfiehlt Agnieszka Walorska. Sie ist Tech-Unternehmerin, Co-Host vom Podcast „Zurück zur Zukunft – Tech-News und Business Models“ und zu Gast in der aktuellen Episode vom „Digga Fake“-Podcast.

Im Gespräch mit Victoria betont sie vor allem den Psychologie-Trick des sogenannten Social Engineering. Dabei werden Menschen – simpel ausgedrückt – so weit dazu gebracht, bis sie tun oder glauben, was der Betrüger oder die Betrügerin will.

Der (Nicht)Blick für Details ist fatal

„Vieles, was mit dem Thema technische Manipulation zu tun hat, ist im ersten Schritt Social Engineering“, sagt Agnieszka.

Am Beispiel Klitschko-Fake lässt sich das gut veranschaulichen. In diesem Fall war ein Übersetzer während des Video-Calls im Hintergrund aktiv und das bot Ablenkung vom tatsächlich Gesagten. Laut Medienberichten konnten die Beteiligten den Fake erst nach ungefähr 30 Minuten enttarnen.

Welche weiteren Gründe sprechen für den Erfolg gefälschter Live-Calls?

„Wir haben uns daran gewöhnt, dass die Bildqualität in Telefonaten zum Teil nicht gut ist“, sagt Agnieszka. Beispielsweise erscheine es bei verpixelten Bildern normal, dass Mundbewegungen nicht zum Gesagten passen. Das biete eine ideale Spielwiese für Betrug. Denn alles, was nicht genau sichtbar sei, könne man auch nicht ganz genau analysieren, so Agnieszka.

Tipps, damit du Deepfakes besser erkennst


Sei kritisch! Hinterfrage den Anrufer bzw. die Anruferin
Passt das vom Kontext? Erscheinen die Gesten komisch? Wirkt die Stimme merkwürdig? Stellt dein Gegenüber Fragen zu Passwörtern, Geburtsdatum oder anderen sensiblen Daten? Das sind Warnzeichen.

Wechsle vom Smartphone zum Computer bzw. Laptop – auch wenn es lästig ist!
Bei schlechter Bildqualität, wechsle das Endgerät. Je größer der Bildschirm, desto eher lassen sich verpixelte Gesichtsstellen oder andere Ungereimheiten erkennen.

Prüf die Quelle! Bitte um eine zusätzliche Verifizierung.
Bringe dein Gegenüber dazu, dich zurückzurufen oder dir eine Email zu schicken. Und ganz wichtig: Bitte dein Gegenüber, sich die Hand vor das Gesicht zu halten. Nach aktuellem Stand der Technik entstehen bei Live-Deepfakes (noch) Störungen im Bild.

Shownotes zur aktuellen Episode

Musik

„Digga Fake Theme Song“ von Alexey Potiy

Fotos

Alexander Bley und Agnieszka Walorska

„Digga Fake – der Podcast über Fake News & Fact-Checking“ ist eine Produktion von © Victoria Graul

Weiteres Futter für Augen, Ohren und Kopf gibt’s auf Instagram.

Quellen & Lesetipps

Podcast „Zurück zur Zukunft – Tech News & Business Models“, abrufbar unter https://zurueckzurzukunft.de/, letzter Zugriff am 29.11.2022.

Youtube-Video „Watch a young Elon Musk get his first supercar in 1999“ von CNN, abrufbar unter https://www.youtube.com/watch?v=s9mczdODqzo, letzter Zugriff am 29.11.2022.

Beispiele für KI Web-Tools: Textgenerator Neuroflash, abrufbar unter https://neuroflash.com/ | Bildgenerator Midjourney, abrufbar unter https://midjourney.gitbook.io/docs/ | Bildgenerator Dall-e, abrufbar unter https://openai.com/dall-e-2/ | Stimmengenerator Resemble, abrufbar unter https://www.resemble.ai/

Setz dich zu Victoria ans Mikro

Wenn die Chemie passt, kommt der Rest von ganz allein.