slider

Deepfake - Prof. Dr. Norbert Pohlmann

Deepfake

Deepfake am Beispiel einer Ansprache von Barack Obama

Was ist eine Deepfake?


Deepfake
Bei Deepfake werden vorwiegend dynamische Medien wie Audio- oder Video-Sequenzen so manipuliert, dass es für Menschen, die keine versierten Experten sind, so erscheint, als wären diese Aufnahmen echt/original.

Das Ziel von Deepfake ist unter anderem, es so aussehen zu lassen, dass eine Person in einer Audio- und Video-Sequenz etwas sagt und/oder tut, was diese nicht gesagt und/oder getan hat. Dadurch lässt sich zum Beispiel ermöglichen, Individuen oder ganze Personengruppen zu diffamieren oder zu Gewalttaten aufzurufen beziehungsweise Chaos zu stiften.

Da die Medien mithilfe von Deep Learning-Verfahren bearbeitet oder entsprechend generiert werden, hat sich dafür der Name Deepfake (Deep Fake) etabliert: Eine Zusammensetzung aus „Deep Learning“ – hochwertige Methoden des maschinellen Lernens – und dem englischen Begriff für Fälschung oder Schwindel „Fake“.

Die Technik, dass bildgenerierende Systeme mithilfe von Deep Learning Videos erzeugen können – die originär für die Filmindustrie entwickelt wurde – wird auch heute noch für positive Zwecke eingesetzt, eben zum Beispiel in der Filmindustrie.

Welche Angriffsmethoden lassen sich mit Deepfake umsetzen?

1. Angriff mit gefälschter Personen-Identität durch die Manipulation von Videos

Es gibt verschiedene – auf Deep Learning basierte – Verfahren, unter deren Einsatz es möglich ist Videos zu manipulieren, zum Beispiel indem darin Gesichter ausgetauscht werden (Face Swapping), um ein bestimmtes Ziel zu erreichen. Bei einem entsprechenden Angriff ist somit die Idee, dass der Angreifer entweder der Zielperson in einem bereits existierenden Video „neue Worte in den Mund legt“ oder in einem neuerstellten Video ein Gesicht (zum Beispiel von einer Person in einer Veranstaltung) oder alternativ das eigene, durch das der Zielperson ersetzt.

Bei modernen Deep Learning Verfahren bedarf es nur weniger Minuten an Videomaterial der Zielperson, um das KI-System zu trainieren. Dadurch wird der Angreifer unter anderem in die Lage versetzt, (seine gewünschten) Aussagen zu machen und für den Betrachter sieht es so aus, als ob die Zielperson diese tätigen würde.

2. Angriff mit gefälschter Stimme

Hierzu werden zum Beispiel Text-to-Speech Verfahren verwendet, die aus einer vorhandenen Textdatei ein Audio-Signal erzeugen. Für einen Angriff werden spezifische Charakteristika einer Zielperson genutzt etwa Dialekte oder eine besondere Betonung, damit das Audio-Signal sich wie die Zielperson anhört. Durch diese Angriffsmethode können sowohl Menschen als auch Spracherkennungsverfahren getäuscht werden. Beim „Voice-Conversion“ wird als Input ein Audio-Signal des Angreifers verwendet – dieses wird dabei so konvertiert, dass es dem Audio-Signal der Zielperson hundertprozentig entspricht. Auch bei diesem Verfahren werden Trainingsdaten – in diesem Fall Audiomaterial – der Zielperson benötig, damit das KI-System die Aufgabe umsetzen kann.

3. Angriff mit gefälschten Texten

Bei diesem Angriff werden auf Basis von Texten einer Zielperson mithilfe von KI-Systemen Texte generiert, die so plausibel sind, dass sie von der Zielperson stammen könnten. Diese können dann verwendet werden, um eine Person zu bestimmten Handlungen zu motivieren. Für diesem Angriff können zum Beispiel Social Media-Plattformen verwendet werden – zum einen, um hier Informationen über die Zielperson zu generieren und zum anderen, um einen Angriff auf eine Person durchzuführen.

Mögliche Angriffsszenarien von Deepfake

Mit den verschiedenen Angriffsmethoden ist es relativ einfach möglich, mediale Identitäten und deren Inhalte zu manipulieren. Im Folgenden werden einige dargestellt:

Social Engineering:
Deepfake-Verfahren können genutzt werden, um gezielte Phishing-Angriffe oder auch Spear-Phishing / Whaling durchzuführen und so Personen dahingehend zu manipulieren, etwas zu tun, was sie im Regelfall nicht machen würden. Dazu werden unter anderem über Social Media-Kanäle Informationen zur Zielperson – etwa den CEO – zusammengetragen, um über notwendige Angaben zu verfügen, beispielsweise den aktuellen Aufenthaltsort. So lässt sich ein CEO-Fraud durchführen: Der Angreifer ruft bei dem Unternehmen des CEO an – dass er dies mit der gefälschten Stimme des CEO tut, versetzt ihn in die Lage eine Geldtransaktion auszulösen, die er dann auf ein beliebiges Konto überführen kann.

Desinformationskampagnen:
Hier können auf Basis von Deepfakes von Schlüsselpersonen – zum Beispiel Politikern – mit gefälschten Medieninhalten Desinformationskampagnen durchgeführt werden, mit dem Ziel Individuen, Personengruppen oder Gesellschaften zu beeinflussen. Dadurch können zum Beispiel Aktienkurse manipuliert, dem Image von Produkten geschadet oder die Reputation von Unternehmen beschädigt werden. Zudem lässt sich auch das Wahlverhalten von Bürgern auf diese Weise beeinflussen, insbesondere wenn die Deepfakes mittels intelligenter Methoden über Social Media-Kanäle verteilt werden.

Überwindung biometrischer Systeme:
Mithilfe von Deepfake ist es möglich, mediale Inhalte mit den Charakteristika einer Zielperson zu erstellen und in Echtzeit zu nutzen. Dadurch können biometrische Systeme manipuliert beziehungsweise überwunden werden. Die potenziellen Schäden, die bei der Überwindung biometrischer Systeme entstehen können, sind sehr hoch.

Verleumdung/Verunglimpfung/Diffamierung:
Da es mit Deepfake möglich ist, eine Person beliebige (beispielsweise gesellschaftlich nicht tolerierte) Aussagen treffen zu lassen, kann durch die Verbreitung von Unwahrheiten der Ruf dieser Person nachhaltig geschädigt werden.

Bewertung von Deepfakes

Da das Erkennen von Deepfake nicht trivial ist, stellen diese ein sehr großes Risiko dar.

Beispiel eines Deepfake-Videos

Da im Prinzip nur ausgewiesene Experten ein Deepfake-Video von einem echten Video unterscheiden können, ist es möglich, alle anderen Menschen mit diesem zu täuschen oder zu manipulieren.
Ein manipuliertes Video (Deepfake-Video) von bekannten Persönlichkeiten wie etwa Barack Obama ist sehr gut geeignet, Individuen oder bestimmte Personengruppen zu diffamieren oder auch zu Gewalttaten aufrufen und Chaos zu stiften – allein aufgrund der Tatsache, dass den Aussagen bestimmter Persönlichkeiten eine höhere Autorität und auch Glaubwürdigkeit beigemessen wird.    

Deep-Fake am Beispiel einer Ansprache von Barack Obama
Abbildung: Deep-Fake – © Copyright-Vermerk




Weitere Informationen zum Begriff “Deepfake”

Thesen und Handlungsempfehlungen zum Thema „Sicherheit und Vertrauenswürdigkeit von KI‐Systemen“ für die Enquete-Kommission – Deutscher Bundestag: „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“

Artikel:
„Fake-News in Sozialen Netzwerken – Das „Mitmach-Web“

Wertschöpfung der Digitalisierung sichern – Vier Cybersicherheitsstrategien für den erfolgreichen Wandel in der IT“

IT-Sicherheit im Lauf der Zeit

Das Manifest zur IT-Sicherheit – Erklärung von Zielen und Absichten zur Erreichung einer angemessenen Risikolage in der IT“

Strafverfolgung darf die IT-Sicherheit im Internet nicht schwächen

Wie wirtschaftlich sind IT-Sicherheitsmaßnahmen

Risikobasierte und adaptive Authentifizierung

Eine vertrauenswürdige Zusammenarbeit mit Hilfe der Blockchain-Technologie

Künstliche Intelligenz und Cybersicherheit – Unausgegoren aber notwendig“

Vertrauen – ein elementarer Aspekt der digitalen Zukunft

Eine Diskussion über Trusted Computing – Sicherheitsgewinn durch vertrauenswürdige IT-Systeme“

Ideales Internet-Frühwarnsystem

Bedrohungen und Herausforderungen des E-Mail-Dienstes – Die Sicherheitsrisiken des E-Mail-Dienstes im Internet“

Bücher:
Cyber-Sicherheit – Das Lehrbuch für Konzepte, Mechanismen, Architekturen und Eigenschaften von Cyber-Sicherheitssystemen in der Digitalisierung

Bücher zum kostenlosen Download

  • Sicher im Internet: Tipps und Tricks für das digitale Leben
  • Der IT-Sicherheitsleitfaden
  • Firewall-Systeme – Sicherheit für Internet und Intranet, E-Mail-Security, Virtual Private Network, Intrusion-Detection-System, Personal Firewalls

Glossar Cyber-Sicherheit:
Bundesamt für Sicherheit in der Informationstechnik (BSI)

Zurück zur Übersicht




Summary
Deepfake
Article Name
Deepfake
Description
Deepfake sind mithilfe von künstlicher Intelligenz erstellte Audio- oder Video-Sequenzen, mit denen überzeugend Menschen getäuscht und manipuliert werden. Nur Experte können ein Deepfake von einem echten Medium unterscheiden.
Author
Publisher Name
Institut für Internet-Sicherheit – if(is)
Publisher Logo
Deepfake am Beispiel einer Ansprache von Barack Obama
Deepfake Prof. Dr. Norbert Pohlmann - Cyber-Sicherheitsexperten