Poisoning Attack - Prof. Dr. Norbert Pohlmann
Poisoning Attack | |
![]() | Inhaltsverzeichnis Was ist ein Poisoning Attack auf eine KI-Lösung?
![]()
Beispiel eines Poisoning AttacksIn diesem Beispiel werden bei der Support-Vector-Machine die klassifizierten Eingangsdaten so modifiziert, dass die Hyperebene zur Trennung der klassifizierten Objekte so verändert wird, dass dadurch gezielt unerkannte Angriffe möglich sind. ![]() (1) Normale Klassifizierung eines neuen Inputs. (2) Beispiel: Manipulation von Trainingsdaten Falsch klassifizierte Daten werden in den Trainingsprozess als Angriff einschleust (zwei weitere blaue Punkte). Dadurch wird die Gerade des Modells zur Klassifizierung manipuliert (Gerade wird flacher). (3) Damit kann ein Angreifer für falsche Klassierungen sorgen. Schutzmaßnahmen gegen einen Poisoning AttackEin Poisoning Attack basiert auf der Manipulation von Trainingsdaten. Folglich besteht der Schutz vor diesem Angriffsvektor darin, den Trainingsdatensatz vor unautorisierter Veränderung zu schützen. Da Trainingsdaten häufig aus externen Quellen bezogen werden, sollte zusätzlich eine Beurteilung der Qualität und der Vertrauenswürdigkeit der Trainingsdaten erfolgen. Die folgende Liste gibt eine Übersicht von möglichen Maßnahmen, mit denen die Angriffsfläche für einen Poisoning Attack eingeschränkt werden kann:
Ein Leistungsabfall kann ein Indikator für einen Poisoning Attack sein und einen Prozess zur Untersuchung des Trainingsdatensatzes und der KI-Lieferkette anstoßen. Angriffe auf die Künstliche Intelligenz ![]() Weitere Informationen zum Begriff “Poisoning Attack”:
„Angriffe auf die Künstliche Intelligenz – Bedrohungen und Schutzmaßnahmen“ „Künstliche Intelligenz und Cybersicherheit – Unausgegoren aber notwendig“ „Ethik und künstliche Intelligenz – Wer macht die Spielregeln für die KI?“ „Der Virtuelle IT-Sicherheitsberater – Künstliche Intelligenz (KI) ergänzt statische Anomalien“ „Angriffe auf die Künstliche Intelligenz – Bedrohungen und Schutzmaßnahmen“ „Wie können wir der KI vertrauen? – Mechanismus für gute Ergebnisse“ „Sei gewarnt! Vorhersage von Angriffen im Online-Banking“ „Übungsaufgaben und Ergebnisse zum Lehrbuch Cyber-Sicherheit“ „Bücher im Bereich Cyber-Sicherheit und IT-Sicherheit zum kostenlosen Download“
„AI for IT security and IT security for AI“ „Künstliche Intelligenz (KI) und Cyber-Sicherheit“ „Immer mehr Daten = Immer mehr (Un) Sicherheit?“ „Cyber-Sicherheit vor dem Hintergrund von Krisensituationen“
„Master-Studiengang Internet-Sicherheit (IT-Sicherheit, Cyber-Sicherheit)“ „Marktplatz IT-Sicherheit: IT-Notfall“ „Marktplatz IT-Sicherheit: IT-Sicherheitstools“ „Marktplatz IT-Sicherheit: Selbstlernangebot“ „Marktplatz IT-Sicherheit: Köpfe der IT-Sicherheit“ „Vertrauenswürdigkeits-Plattform“ Zurück zur Übersicht Summary ![]() Article Name Poisoning Attack Description Bei einem Poisoning Attack werden Trainingsdaten manipuliert, um die Leistung eines KI-Modells zu verschlechtern oder konkret falsche Ergebnisse zu produzieren. Schon eine geringe Manipulation kann weitreichenden Einfluss haben. Author Prof. Norbert Pohlmann Publisher Name Institut für Internet-Sicherheit – if(is) Publisher Logo ![]() |
![]() | |








