slider

Deepfake - Prof. Dr. Norbert Pohlmann

Deepfake

Deepfake am Beispiel einer Ansprache von Barack Obama

Was ist eine Deepfake?


Deepfake
Bei Deepfake werden vorwiegend dynamische Medien wie Audio- oder Video-Sequenzen so manipuliert, dass es für Menschen, die keine versierten Experten sind, so erscheint, als wären diese Aufnahmen echt/original.

Das Ziel von Deepfake ist unter anderem, es so aussehen zu lassen, dass eine Person in einer Audio- und Video-Sequenz etwas sagt und/oder tut, was diese nicht gesagt und/oder getan hat. Dadurch lässt sich zum Beispiel ermöglichen, Individuen oder ganze Personengruppen zu diffamieren oder zu Gewalttaten aufzurufen beziehungsweise Chaos zu stiften.

Da die Medien mithilfe von Deep Learning-Verfahren bearbeitet oder entsprechend generiert werden, hat sich dafür der Name Deepfake (Deep Fake) etabliert: Eine Zusammensetzung aus „Deep Learning“ – hochwertige Methoden des maschinellen Lernens – und dem englischen Begriff für Fälschung oder Schwindel „Fake“.

Maschinelles Lernen ist Wissen aus Daten
Abbildung: Maschinelles Lernen ist Wissen aus Daten – © Copyright-Vermerk



Die Technik, dass bildgenerierende Systeme mithilfe von Deep Learning Videos erzeugen können – die originär für die Filmindustrie entwickelt wurde – wird auch heute noch für positive Zwecke eingesetzt, eben zum Beispiel in der Filmindustrie.

Welche Angriffsmethoden lassen sich mit Deepfake umsetzen?

1. Angriff mit gefälschter Personen-Identität durch die Manipulation von Videos

Es gibt verschiedene – auf Deep Learning basierte – Verfahren, unter deren Einsatz es möglich ist Videos zu manipulieren. Zum Beispiel indem darin Gesichter ausgetauscht werden (Face Swapping), um ein bestimmtes Ziel zu erreichen. Bei einem entsprechenden Angriff ist somit die Idee, dass der Angreifer entweder der Zielperson in einem bereits existierenden Video „neue Worte in den Mund legt“ oder in einem neuerstellten Video ein Gesicht (zum Beispiel von einer Person in einer Veranstaltung) oder alternativ das eigene, durch das der Zielperson ersetzt.

Bei modernen Deep Learning Verfahren bedarf es nur weniger Minuten an Videomaterial der Zielperson, um das KI-System zu trainieren. Dadurch wird der Angreifer unter anderem in die Lage versetzt, (seine gewünschten) Aussagen zu machen und für den Betrachter sieht es so aus, als ob die Zielperson diese tätigen würde.

2. Angriff mit gefälschter Stimme

Hierzu werden zum Beispiel Text-to-Speech Verfahren verwendet, die aus einer vorhandenen Textdatei ein Audio-Signal erzeugen. Für einen Angriff werden spezifische Charakteristika einer Zielperson genutzt etwa Dialekte oder eine besondere Betonung, damit das Audio-Signal sich wie die Zielperson anhört. Durch diese Angriffsmethode können sowohl Menschen als auch Spracherkennungsverfahren getäuscht werden. Beim „Voice-Conversion“ wird als Input ein Audio-Signal des Angreifers verwendet – dieses wird dabei so konvertiert, dass es dem Audio-Signal der Zielperson hundertprozentig entspricht. Auch bei diesem Verfahren werden Trainingsdaten – in diesem Fall Audiomaterial – der Zielperson benötig, damit das KI-System die Aufgabe umsetzen kann.

3. Angriff mit gefälschten Texten

Bei diesem Angriff werden auf Basis von Texten einer Zielperson mithilfe von KI-Systemen Texte generiert, die so plausibel sind, dass sie von der Zielperson stammen könnten. Diese können dann verwendet werden, um eine Person zu bestimmten Handlungen zu motivieren. Für diesem Angriff können zum Beispiel Social Media-Plattformen verwendet werden – zum einen, um hier Informationen über die Zielperson zu generieren und zum anderen, um einen Angriff auf eine Person durchzuführen.

Mögliche Angriffsszenarien von Deepfake

Mit den verschiedenen Angriffsmethoden ist es relativ einfach möglich, mediale Identitäten und deren Inhalte zu manipulieren. Im Folgenden werden einige dargestellt:

Social Engineering:
Deepfake-Verfahren können genutzt werden, um gezielte Phishing-Angriffe oder auch Spear-Phishing / Whaling durchzuführen. Personen werden dadurch manipuliert, etwas zu tun, was sie im Regelfall nicht machen würden. Dazu werden unter anderem über Social Media-Kanäle Informationen zur Zielperson – etwa den CEO – zusammengetragen, um über notwendige Angaben zu verfügen. Beispielsweise den aktuellen Aufenthaltsort und/oder der Grund einer Dienstreise. So lässt sich ein CEO-Fraud durchführen: Der Angreifer ruft bei dem Unternehmen des CEO an – dass er dies mit der gefälschten Stimme des CEO tut, versetzt ihn in die Lage, eine Geldtransaktion auszulösen, die er dann auf ein beliebiges Konto überführen kann.

Social Engineering dargestellt als mit Maske getarnter Angreifer
Abbildung: Social Engineering – © Copyright-Vermerk


Desinformationskampagnen:
Hier können auf Basis von Deepfakes von Schlüsselpersonen – zum Beispiel Politikern – mit gefälschten Medieninhalten Desinformationskampagnen durchgeführt werden, mit dem Ziel Individuen, Personengruppen oder Gesellschaften zu beeinflussen. Dadurch können zum Beispiel Aktienkurse manipuliert, dem Image von Produkten geschadet oder die Reputation von Unternehmen beschädigt werden. Zudem lässt sich auch das Wahlverhalten von Bürgern auf diese Weise beeinflussen, insbesondere wenn die Deepfakes mittels intelligenter Methoden über Social Media-Kanäle verteilt werden. Deepfake kann auch als Kriegsmittel verwendet werden.

Deepfake - Desinformation
Abbildung: Deepfake und Desinformation © Copyright-Vermerk


Überwindung biometrischer Systeme:
Mithilfe von Deepfake ist es möglich, mediale Inhalte mit den Charakteristika einer Zielperson zu erstellen und in Echtzeit zu nutzen. Dadurch können biometrische Systeme manipuliert beziehungsweise überwunden werden. Die potenziellen Schäden, die bei der Überwindung biometrischer Systeme entstehen können, sind sehr hoch.

Deepfake - biometrischer Systeme
Abbildung: Deepfake und biometrischer Systeme © Copyright-Vermerk


Verleumdung/Verunglimpfung/Diffamierung:
Da es mit Deepfake möglich ist, eine Person beliebige (beispielsweise gesellschaftlich nicht tolerierte) Aussagen treffen zu lassen, kann durch die Verbreitung von Unwahrheiten der Ruf dieser Person nachhaltig geschädigt werden. Siehe auch: Cyber-Mobbing

Cyber-Mobbing als Verleumdung, Belästigung, Bedrohungen, Nötigung und Bloßstellen im Cyber-Raum
Abbildung: Cyber-Mobbing – © Copyright-Vermerk



Bewertung von Deepfakes

Da das Erkennen von Deepfake nicht trivial ist, stellen diese ein sehr großes Risiko dar.

Beispiel eines Deepfake-Videos

Da im Prinzip nur ausgewiesene Experten ein Deepfake-Video von einem echten Video unterscheiden können, ist es möglich, alle anderen Menschen mit diesem zu täuschen oder zu manipulieren.
Ein manipuliertes Video (Deepfake-Video) von bekannten Persönlichkeiten wie etwa Barack Obama ist sehr gut geeignet, Individuen oder bestimmte Personengruppen zu diffamieren oder auch zu Gewalttaten aufrufen und Chaos zu stiften. Allein aufgrund der Tatsache, dass den Aussagen bestimmter Persönlichkeiten eine höhere Autorität und auch Glaubwürdigkeit beigemessen wird, erhöht die Wirkung.    

Deep-Fake am Beispiel einer Ansprache von Barack Obama
Abbildung: Deep-Fake – © Copyright-Vermerk




Weitere Informationen zum Begriff “Deepfake”:



Fake-News in Sozialen Netzwerken – Das „Mitmach-Web“ hat seine Unschuld (endgültig) verloren

Influence of security mechanisms on quality of service with VoIP

Trust as a Service – Vertrauen als Dienstleistung – Validierung digitaler Nachweise mit der Blockchain

Menschliche Basis fürs Business – Mechanismen zur Vertrauensbildung

Biometrie – Bessere Identifikation, sichere Authentisierung

Aktivierung von Smartcards durch Biometrie



Lehrbuch Cyber-Sicherheit

Übungsaufgaben und Ergebnisse zum Lehrbuch Cyber-Sicherheit

Bücher im Bereich Cyber-Sicherheit und IT-Sicherheit zum kostenlosen Download



Vorlesungen zum Lehrbuch Cyber-Sicherheit



Zukunftsforum IT-Management

Firewall – State of the art

SPHINX – Standard MailTrusT im Praxistest

Sicherheit in verteilten Netzwerken



Forschungsinstitut für Internet-Sicherheit (IT-Sicherheit, Cyber-Sicherheit)

Master-Studiengang Internet-Sicherheit (IT-Sicherheit, Cyber-Sicherheit)

Marktplatz IT-Sicherheit

It’s all about Trust!


Zurück zur Übersicht




Summary
Deepfake
Article Name
Deepfake
Description
Deepfake sind mithilfe von künstlicher Intelligenz erstellte Audio- oder Video-Sequenzen, mit denen überzeugend Menschen getäuscht und manipuliert werden. Nur Experte können ein Deepfake von einem echten Medium unterscheiden.
Author
Publisher Name
Institut für Internet-Sicherheit – if(is)
Publisher Logo
Deepfake am Beispiel einer Ansprache von Barack Obama
Deepfake Prof. Dr. Norbert Pohlmann - Cyber-Sicherheitsexperten