Nicht nur einige Politiker wurden vor einigen Wochen von einem Deepfake-Videoanruf kalt erwischt und arg getäuscht. Auch im täglichen Einsatz von Cyberkriminellen nehmen diese besonders trickreichen Angriffe deutlich zu. Laut dem 2022 Global Incident Response Threat Report von VMWare bezeugen 66% der Incident-Responders Deepfake-Angriffe in den letzten 12 Monaten. [1]
Was sind eigentlich Deepfakes?
Der Name entsteht aus einer Kombination von zwei Begriffen: „Deep Learning“ und „Fake“. Hinter dem ersten Begriff steckt eine Art des maschinellen Lernens, die mit Hilfe von künstlicher Intelligenz (KI) Daten (hierbei oft audiovisuelle Medien) in mehreren Ebenen („tief“) analysiert.
Diese Muster, die zum Beispiel aus einem Video gewonnen wurden, können in Folge dazu dienen, eine besonders genaue Fälschung mit anderem Inhalt oder neuen Aussagen zu erzeugen. So kann aus vorhandenen Videos eines Prominenten ein 3D-Gesichts-Modell erstellt werden, das realistische Bewegungen und vertraute Verhalts- und Ausdrucksweisen nachbildet – ein Deepfake.
Dasselbe ist auch mit Audio-Daten möglich. Durch die Weiterentwicklung der künstlichen Intelligenz ist es inzwischen sogar sehr einfach, solche Fälschungen zu erstellen. [2]
Wie werden Deepfakes eingesetzt?
Bei Cyber-Angriffen werden KI-generierte Medien meistens dazu verwendet, das Abbild oder die Sprache einer echten Person zu imitieren. Laut Statistik überwiegt die Anzahl der Video-Fälschungen leicht, der Rest betrifft Audio/Sprache.
Die Art der Übermittlung von Deepfake-Angriffen variiert. E-Mails stehen auch hier an der Spitze der meistgenutzten Einfallstore. Gefolgt werden sie von Mobile Messaging, Sprachanrufen und der Übermittlung über Soziale Medien. Auch Meeting-Anwendungen von Drittanbietern und Tools für die geschäftliche Zusammenarbeit kommen dem Bericht zufolge immer häufiger zum Einsatz.
Wie können Deepfakes erkannt werden?
Das Deutsche BSI hat eine Informationsseite eingerichtet, um Anwender*innen zu den Gefahren von Deepfake-Angriffen zu sensibilisieren und zur Erkennung der Methoden zu schulen. [3]
Besonders Deepfake-Videos in Real-Time enthalten im Regelfall sogenannte Artefakte, das sind künstliche Veränderungen oder Abbildungsfehler. Das können zum Beispiel verwischte Übergänge am Rand des eingesetzten Gesichtes oder unscharfe Konturen sein. Auch eine begrenzte Mimik, beschränkte Bewegungsmöglichkeiten des Kopfes oder Unstimmigkeiten bei der Beleuchtung können auf Deepfakes hinweisen.
Bei Sprachübermittlungen können ein metallischer Sound, eine monotone Aussprache oder Auffälligkeiten bei der Wiedergabe anderer Sprachen oder eines Akzente auffallen. Auch ungewöhnliche Geräusche oder Verzögerungen bei der Reaktion können auf die Verwendung von Sprach-Technologien zur Erstellung von Deepfakes hinweisen. Aber Achtung: Fehlen die beispielhaft genannten Auffälligkeiten, weist das nicht automatisch auf valide Daten hin. Die Technologien und Angriffsmethoden entwickeln sich immer weiter und werden die Erkennung von Deepfakes in Zukunft noch mehr erschweren.
Learnings und Ausblick
Obwohl Deepfakes noch keineswegs fehlerfrei sind, werden sie immer wieder im Rahmen von Social-Engineering-Angriffen eingesetzt. Der Zweck sind einerseits Betrugsversuche, andererseits aber auch die Beeinflussung von Personen, um diese zu unüberlegten Aktionen zu verleiten. Kann das Opfer dazu gebracht werden, ein Passwort zurückzusetzen oder auf einen Link zu klicken, hat der Angreifende sein Ziel meist erreicht. Awareness und Anwenderschulungen sind essenzielle Punkte, um diese Gefahr abzuwehren! Es ist damit zu rechnen, dass Deepfake-Angriffe in Zukunft weiter an Bedeutung gewinnen werden.
Leseempfehlungen:
Identitäten im Fokus von Cyberkriminellen
Quellen: