slider

Evasion Attack - Prof. Dr. Norbert Pohlmann

Evasion Attack

Evasion Attack

Was ist ein Evasion Attack auf eine KI-Lösung?


Ziel einer Evasion Attack ist die Erstellung einer Eingabe, die eine falsche oder spezifische Entscheidung verursacht. Eine solche Eingabe wird als “Adversarial Example” bezeichnet. Zum Beispiel könnte ein Angreifer eine spezielle Brille herstellen und tragen, um sich gegenüber einem Gesichtserkennungssystem als eine andere Person auszugeben. Damit beeinflusst ein Evasion Attack die Cyber-Sicherheit von KI-Systemen.

Voraussetzungen zur Durchführung einer Evasion Attack sind grundlegende Informationen über und (in)direkter Zugriff auf das KI-Modell. In der Regel sind grobe Informationen über die Aufgabe eines KI-Modells, die Repräsentation von Eigenschaften und die Art der Trainingsdaten einem Angreifer bekannt. Der Zugriff auf das KI-Modell kann je nach Anwendungsszenario unterschiedlich ausgestaltet sein:

  • Das Ziel-Modell ist öffentlich verfügbar, wird von einem Modell-Anbieter an mehrere Kunden verkauft oder kann mit einem Cyberangriff gestohlen werden. In diesen Fällen hat ein Angreifer direkten Zugriff auf das Ziel-Modell und kann Adversarial Examples lokal testen.
  • Es steht ein Eingabe-Ausgabe-Orakel zur Verfügung, sodass ein Angreifer Anfragen an das Ziel-Modell senden kann und die jeweilige Modellausgabe als Antwort erhält. In diesem Fall hat ein Angreifer indirekten Zugriff auf das Ziel-Modell und muss zum Testen von Adversarial Examples das Orakel nutzen. Die Antworten des Orakels kann ein Angreifer sammeln und beliebig verwenden (z. B. zur Anpassung der Strategie).
  • Der Angreifer hat weder direkten noch indirekten Zugriff auf das Ziel-Modell und nur einige sehr wenige Versuche, eine Fehlentscheidung zu verursachen. Dazu zählt das Entsperren eines gestohlenen Smartphones mit einem Adversarial Example gegen das Modell zur Identifizierung des Besitzers mittels Gesichtserkennung oder Abgleich des Fingerabdrucks.

Zusätzlich besteht oftmals die Möglichkeit, mit öffentlichen Datensätzen ein ähnliches KI-Modell zu trainieren und dieses zur Vorbereitung eines Adversarial Example zu verwenden. Zu diesem Zweck wird die sogenannte Übertragbarkeitseigenschaft (engl. transferability property) verwendet. In der KI-Domäne besagt diese Eigenschaft, dass ein Adversarial Example, das bei einem KI-Modell funktioniert, mit hoher Wahrscheinlichkeit auch bei einem anderen KI-Modell funktionieren wird, wenn beide KI-Modelle auf die gleiche Aufgabe trainiert wurden. Effektiv ist dies mit einem direkten Zugriff auf das Ziel-Modell gleichzusetzen.

Schutzmaßnahmen gegen eine Evasion Attack

Die Annahme, dass durch Geheimhaltung von Details über die Implementierung und das Training eines KI-Modells Angriffe erheblich erschwert werden, ist fraglich. Denn schon durch Kenntnis der Aufgabe eines KI-Modells lassen sich Informationen wie Modell-Architektur, Trainingsalgorithmus, Art der Trainingsdaten und die Eigenschaftsrepräsentation (zumindest ungefähr) ableiten. Des Weiteren steht für die meisten Anwendungsszenarien ein entsprechender Trainingsdatensatz öffentlich zur Verfügung. In der Praxis hat ein Angreifer oftmals auch Zugriff auf ein Orakel. Sinnvolle Schutzmaßnahmen sollten dieses Angreifermodell berücksichtigen und diesem standhalten.

Eine Verwundbarkeit gegen Adversarial Examples kann nie gänzlich ausgeschlossen werden. KI-Modelle sind in der Regel fehlerbehaftet, weil nicht alle Prädiktoren erfassbar sind. Es stellt eine Herausforderung dar, während des Trainings alle Areale im Eigenschaftsraum zu explorieren. Zudem gibt es in vielen Domänen Grenzfälle, für die eine eindeutige Vorhersage schwierig ist. Manchmal sind sich selbst Domänenexperten nicht einig, welches Label zu vergeben ist. Insbesondere, wenn konkurrierendes Verhalten (z. B. die Erkennung von Spam) gelernt werden soll, ist anzunehmen, dass Adversarial Examples nicht ausgeschlossen werden können.

Daher ist ein gutes Verständnis der vorliegenden Daten und des zu lösenden Problems unerlässlich für das Design eines robusten KI-Modells. Aufgrund der Vielzahl an Einsatzmöglichkeiten für KI, ist die Erstellung einer universellen Liste von Schutzmaßnahmen nicht möglich. Jedoch gibt es einige Maßnahmen, die auf viele KI-Modelle angewendet werden können:

  • Zusätzlich zu einer quantitativen Auswertung mittels Metriken, sollten auch Methoden der erklärbaren KI (explainable AI) eingesetzt werden, um den Entscheidungsprozess eines KI-Modells nachvollziehen zu können. Hierdurch kann erkannt werden, wenn ein KI-Modell irrelevante Korrelationen als Prädiktoren verwendet, die keiner Kausalität in der jeweiligen Domäne entsprechen. Wenn solche Korrelationen gelernt werden, deutet das darauf hin, dass die Trainingsdaten die Grundwahrheit nicht ausreichend repräsentieren. Zum Beispiel, wenn ein Husky auf einem Bild aufgrund von Schnee im Hintergrund als Wolf klassifiziert wird, könnte dies daran liegen, dass in den Trainingsdaten keine Bilder von Wölfen ohne Schnee im Hintergrund vorliegen.
  • Eingaben und zugehörige Vorhersagen im produktiven Betrieb sollten (stichprobenartig) gesammelt werden, um unerwartetes Verhalten oder Modellalterung zu erkennen. Mit diesen Informationen können Schwachstellen aufgedeckt werden oder sich die Notwendigkeit einer Aktualisierung der Trainingsdaten ergeben.
  • Alternativ oder ergänzend kann dem Nutzer eines KI-Modells eine Funktion zur Verfügung gestellt werden, mit der falsche Vorhersagen gemeldet werden sollen. Alle problematischen Eingaben können in Zukunft in die Evaluation und Qualitätssicherung einfließen.
  • Software-Bibliotheken, welche Algorithmen zur Generierung von Adversarial Examples implementieren, können genutzt werden, um die Robustheit eines KI-Modells zu testen.
  • Je nach dem Grad der Autonomie und der Kritikalität einer KI-basierten Anwendung, ist es sinnvoll, dass weiterhin ein Mensch die Kontrolle über die finale Entscheidung behält. Dabei sind die Nachvollziehbarkeit eines Ergebnisses sowie die Kommunikation von Konfidenzwerten (quantitative Sicherheit einer Empfehlung oder Entscheidung) von wichtiger Bedeutung, um menschlichen Entscheidungsträgern eine informierte Entscheidung zu ermöglichen. Jedoch sollte auch die Gefahr eines Automation Bias nicht außer Acht gelassen werden.

Eine vorangegangene Poisoning Attack kann eine Evasion Attack begünstigen. Indem die Gewichtung von Prädiktoren verändert wird, ist es möglich, dass die Erstellung von Adversarial Examples einfacher ausfallen oder bestimmte Eingaben zu einem Adversarial Example werden. Zum Beispiel kann ein Angreifer gezielte E-Mails senden, sodass sich ein Spamfilter dahingehend verändert, dass eine bestimmte Spam-Mail übersehen wird, die zuvor erkannt worden wäre. In der Abbildung ist dieses Vorgehen konzeptionell dargestellt.

Evasion Attack
Abbildung: Manipulation einer Entscheidungsgrenze verändert die Entscheidung für eine bestimmte Eingabe © Copyright-Vermerk



Hier finden Sie weitere Glossar-Einträge im Bereich der Künstliche Intelligenz:
Künstliche Intelligenz für Cyber-Sicherheit
IT-Sicherheit für Künstliche Intelligenz
Ethik der Künstliche Intelligenz
Singularität
Künstliche Intelligenz
Maschinelles Lernen

Angriffe auf die Künstliche Intelligenz



Evasion Attack
Abbildung: Evasion Attack © Copyright-Vermerk




Weitere Informationen zum Begriff “Evasion Attack”:



Chancen und Risiken von ChatGPT – Vom angemessenen Umgang mit künstlicher Sprachintelligenz

Angriffe auf die Künstliche Intelligenz – Bedrohungen und Schutzmaßnahmen

Künstliche Intelligenz und Cybersicherheit – Unausgegoren aber notwendig

Ethik und künstliche Intelligenz – Wer macht die Spielregeln für die KI?

Der Virtuelle IT-Sicherheitsberater – Künstliche Intelligenz (KI) ergänzt statische Anomalien

Angriffe auf die Künstliche Intelligenz – Bedrohungen und Schutzmaßnahmen

Wie können wir der KI vertrauen? – Mechanismus für gute Ergebnisse

Sei gewarnt! Vorhersage von Angriffen im Online-Banking



Lehrbuch Cyber-Sicherheit

Übungsaufgaben und Ergebnisse zum Lehrbuch Cyber-Sicherheit

Bücher im Bereich Cyber-Sicherheit und IT-Sicherheit zum kostenlosen Download



Vorlesungen zum Lehrbuch Cyber-Sicherheit



Aktuelle Angriffe – Übersicht und Handlungsmöglichkeiten

AI for IT security and IT security for AI

Künstliche Intelligenz (KI) und Cyber-Sicherheit

Immer mehr Daten = Immer mehr (Un) Sicherheit?

Cyber-Sicherheit vor dem Hintergrund von Krisensituationen



Forschungsinstitut für Internet-Sicherheit (IT-Sicherheit, Cyber-Sicherheit)

Master-Studiengang Internet-Sicherheit (IT-Sicherheit, Cyber-Sicherheit)

Marktplatz IT-Sicherheit

It’s all about Trust!


Zurück zur Übersicht




Summary
Evasion Attack
Article Name
Evasion Attack
Description
Ziel einer Evasion Attack ist die Erstellung einer Eingabe, die eine falsche oder spezifische Entscheidung verursacht. Eine solche Eingabe wird als Adversarial Example bezeichnet.
Author
Publisher Name
Institut für Internet-Sicherheit – if(is)
Publisher Logo
Evasion Attack
Evasion Attack Prof. Dr. Norbert Pohlmann - Cyber-Sicherheitsexperten