Neue Cyber-Angriffe setzen auf Deepfakes

7. September, 2022

Nicht nur einige Politiker wurden vor einigen Wochen von einem Deepfake-Videoanruf kalt erwischt und arg getäuscht. Auch im täglichen Einsatz von Cyberkriminellen nehmen diese besonders trickreichen Angriffe deutlich zu. Laut dem 2022 Global Incident Response Threat Report von VMWare bezeugen 66% der Incident-Responders Deepfake-Angriffe in den letzten 12 Monaten. [1]

Was sind eigentlich Deepfakes?

Der Name entsteht aus einer Kombination von zwei Begriffen: „Deep Learning“ und „Fake“. Hinter dem ersten Begriff steckt eine Art des maschinellen Lernens, die mit Hilfe von künstlicher Intelligenz (KI) Daten (hierbei oft audiovisuelle Medien) in mehreren Ebenen („tief“) analysiert.

Diese Muster, die zum Beispiel aus einem Video gewonnen wurden, können in Folge dazu dienen, eine besonders genaue Fälschung mit anderem Inhalt oder neuen Aussagen zu erzeugen. So kann aus vorhandenen Videos eines Prominenten ein 3D-Gesichts-Modell erstellt werden, das realistische Bewegungen und vertraute Verhalts- und Ausdrucksweisen nachbildet – ein Deepfake.

Dasselbe ist auch mit Audio-Daten möglich. Durch die Weiterentwicklung der künstlichen Intelligenz ist es inzwischen sogar sehr einfach, solche Fälschungen zu erstellen. [2]

Wie werden Deepfakes eingesetzt?

Bei Cyber-Angriffen werden KI-generierte Medien meistens dazu verwendet, das Abbild oder die Sprache einer echten Person zu imitieren. Laut Statistik überwiegt die Anzahl der Video-Fälschungen leicht, der Rest betrifft Audio/Sprache.

Die Art der Übermittlung von Deepfake-Angriffen variiert. E-Mails stehen auch hier an der Spitze der meistgenutzten Einfallstore. Gefolgt werden sie von Mobile Messaging, Sprachanrufen und der Übermittlung über Soziale Medien. Auch Meeting-Anwendungen von Drittanbietern und Tools für die geschäftliche Zusammenarbeit kommen dem Bericht zufolge immer häufiger zum Einsatz.

Wie können Deepfakes erkannt werden?

Das Deutsche BSI hat eine Informationsseite eingerichtet, um Anwender*innen zu den Gefahren von Deepfake-Angriffen zu sensibilisieren und zur Erkennung der Methoden zu schulen. [3]

Besonders Deepfake-Videos in Real-Time enthalten im Regelfall sogenannte Artefakte, das sind künstliche Veränderungen oder Abbildungsfehler. Das können zum Beispiel verwischte Übergänge am Rand des eingesetzten Gesichtes oder unscharfe Konturen sein. Auch eine begrenzte Mimik, beschränkte Bewegungsmöglichkeiten des Kopfes oder Unstimmigkeiten bei der Beleuchtung können auf Deepfakes hinweisen.

Bei Sprachübermittlungen können ein metallischer Sound, eine monotone Aussprache oder Auffälligkeiten bei der Wiedergabe anderer Sprachen oder eines Akzente auffallen. Auch ungewöhnliche Geräusche oder Verzögerungen bei der Reaktion können auf die Verwendung von Sprach-Technologien zur Erstellung von Deepfakes hinweisen. Aber Achtung: Fehlen die beispielhaft genannten Auffälligkeiten, weist das nicht automatisch auf valide Daten hin. Die Technologien und Angriffsmethoden entwickeln sich immer weiter und werden die Erkennung von Deepfakes in Zukunft noch mehr erschweren.

Learnings und Ausblick

Obwohl Deepfakes noch keineswegs fehlerfrei sind, werden sie immer wieder im Rahmen von Social-Engineering-Angriffen eingesetzt. Der Zweck sind einerseits Betrugsversuche, andererseits aber auch die Beeinflussung von Personen, um diese zu unüberlegten Aktionen zu verleiten. Kann das Opfer dazu gebracht werden, ein Passwort zurückzusetzen oder auf einen Link zu klicken, hat der Angreifende sein Ziel meist erreicht. Awareness und Anwenderschulungen sind essenzielle Punkte, um diese Gefahr abzuwehren! Es ist damit zu rechnen, dass Deepfake-Angriffe in Zukunft weiter an Bedeutung gewinnen werden.

Leseempfehlungen:

Identitäten im Fokus von Cyberkriminellen

Quellen:

MSSP of the Year 2024

SIEM

Was ist ein SIEM?

Nozomi Guardian Air
HarfangLab Guard
MITRE ATT&CK Framework
v.l.n.r.: Joe Pichlmayr (CEO IKARUS) – Anouck Teiller (CSO HarfangLab) –Alexander van der Bellen (Bundespräsident Österreich) - Frédéric Joureau (Erster Botschaftsrat der französischen Botschaft in Wien) – Christian Fritz (COO IKARUS)
EDR
Cyber Kill Chain
Business Email Compromise
Prognosen für die zehn größten Cybersecurity-Bedrohungen für 2030
E-Mail Verschlüsselung
Schritt für Schritt zum Notfallplan für IT-Security-Incidents
Account Management
Bedrohung
Frühzeitige Erkennung von Cybergefahren

WIR FREUEN UNS AUF SIE!

IKARUS Security Software GmbH
Blechturmgasse 11
1050 Wien

Telefon: +43 1 58995-0
Sales Hotline: +43 1 58995-500
sales@ikarus.at

SUPPORT-HOTLINE:

Support-Infoseite

Support-Hotline:
+43 1 58995-400
support@ikarus.at

Support-Zeiten:
Mo bis Do: 8.00 – 17.00 Uhr
Fr: 8.00 – 15.00 Uhr
24/7 Support nach Vereinbarung

Fernwartung:
AnyDesk Download