slider

Künstliche Intelligenz - Prof. Dr. Norbert Pohlmann

Künstliche Intelligenz

Künstliche Intelligenz als Übersichtsbild Maschinelles Lernen und Deep Learning

Was ist Künstliche Intelligenz?


Künstliche Intelligenz kann wie folgt eingeordnet werden:

Data Science

Die Wissenschaft „Data Science“, ein Fachgebiet der Informatik, beschäftigt sich mit der Extraktion von Wissen aus den Informationen in Daten. Da es immer mehr Daten mit Informationen gibt, kann auch immer mehr Wissen aus den Informationen der Daten abgeleitet werden, insbesondere auch im Bereich der Cyber-Sicherheit.

Künstliche Intelligenz

Dabei setzt „Künstliche Intelligenz“ intelligentes Verhalten in Algorithmen um, mit der Zielsetzung, automatisiert „menschenähnliche Intelligenz“ so gut wie möglich nachzubilden. Bei künstlichen Intelligenzen kann zwischen schwacher und starker Künstliche Intelligenz (KI) unterschieden werden. Eine starke KI soll eine Intelligenz schaffen, die dem Menschen gleicht, kommt oder sogar übertrifft, während die schwache KI sich in der Regel mit konkreten Anwendungsproblemen des menschlichen Denkens beschäftigt.
Singularität ist die Begrifflichkeit, die das Erreichen der starken Künstlichen Intelligenz beschreibt. Singularität bedeutet, dass sich die „KI-Maschine“ selbstständig verbessert und intelligenter als Menschen ist.

Maschinelles Lernen

Maschinelles Lernen (Machine Learning/ML) ist ein Begriff im Bereich der Künstlichen Intelligenz für die „künstliche“ Generierung von Wissen aus den Informationen in Daten mit der Hilfe von IT-Systemen. Mithilfe der Algorithmen des maschinellen Lernens werden mit vorhandenen Datenbeständen Muster und Gesetzmäßigkeiten erkannt und verallgemeinert, um damit neue Problemlösungen umzusetzen. In Lernphasen lernen entsprechende ML-Algorithmen, aus vielen diversen Beispielen simple Muster und Strukturen, hin zu komplexen Merkmalen und Gesetzmäßigkeiten zu erkennen. Daraus entstehende Regeln können auf neue Daten und ähnliche Situationen angewendet werden, in denen die Künstliche Intelligenz (KI) beispielsweise entscheiden muss, ob es sich um einen Angriff oder eine legitime Nutzeraktion handelt. Maschinelles Lernen wird noch effektiver durch Deep Learning.

Deep Learning

Deep Learning ist eine Spezialisierung des maschinellen Lernens und nutzt vorwiegend künstliche neuronale Netze (KNN).

Künstliche Intelligenz als Übersichtsbild Maschinelles Lernen und Deep Learning
Abbildung: Einordnung der Künstlichen Intelligenz – © Copyright-Vermerk


Qualität der Eingabedaten von KI-Systemen

Damit ein KI-System sehr gute Ergebnisse erzielen kann müssen unterschiedliche Aspekte berücksichtigt werden. Relevante Faktoren sind:

  • Die Eingabedaten der KI müssen eine hohe Qualität für den Anwendungsfall aufweisen.
  • Die IT-Anwendung und das KI-System sind von KI- und Anwendungsexperten konzipiert sowie manipulationssicher und vertrauenswürdig umgesetzt.
  • Bei der Entwicklung und Anwendung werden jeweils ethische Grundsätze eingehalten.

Paradigma: Garbage in, Garbage out (GIGO)

Künstliche Intelligenz - Garbage In Garbage Out
Abbildung: Garbage In Garbage Out © Copyright-Vermerk

Garbage in, Garbage out bedeutet im Umfeld der KI, dass unabhängig von der Qualität eines KI-Systems die Ergebnisse schlecht sind, wenn die Eingabedaten eine schlechte Qualität haben. Dies leitet sich aus der grundsätzlichen Idee ab: Extraktion von Wissen aus Daten. Wenn in den Daten keine Informationen stehen, kann auch kein Wissen extrahiert werden. Die Ergebnisqualität eines KI-Systems kann normalerweise nicht besser sein als die Qualität der Eingabedaten. Aus diesem Grund müssen die Eingabedaten eine hohe Qualität ausweisen, um ein gutes Ergebnis zu erzielen.

Im Folgenden wird der Faktor Qualität der Eingabedaten diskutiert, um ein gutes Verständnis dafür zu erhalten.

Faktoren der Qualität der Eingabedaten bei KI-Systemen

Wegen der Wichtigkeit der Qualität der Eingabedaten sollte ein Standard der Datenqualität für KI-Systeme etablieret werden. Im Einzelnen sind dabei unter anderem Vollständigkeit, Repräsentativität, Nachvollziehbarkeit, Aktualität und Korrektheit zu berücksichtigen. Außerdem sollte es obligatorisch sein, entsprechende Positionen im Unternehmen zu konstituieren, die für das Modell der Datengewinnung und -nutzung zuständig sowie für die Kontrolle der ordnungsgemäßen Umsetzung verantwortlich sind.

Künstliche Intelligenz - Qualitative Ergebnisse
Abbildung: Qualitative Ergebnisse bei der Künstlichen Intelligenz © Copyright-Vermerk

1. Vollständigkeit der Daten
Die Grundvoraussetzung für Vollständigkeit ist, dass ein Datensatz alle notwendigen Attribute und Inhalte enthält. Kann die Vollständigkeit der darin inkludierten Daten nicht garantiert werden, entsteht daraus potenziell das Problem von irreführenden Tendenzen, was letztendlich zu falschen oder diskriminierenden Ergebnissen führt. Dieses Phänomen tritt unter anderem bei Predictive Policing-Systemen auf: Wenn beispielsweise die Datenerhebung zu Kriminalitätsdelikten von vorneherein massiv in definierten Stadtvierteln stattfindet und dies im Kontext mit bestimmten Merkmalen wie Herkunft und Alter geschieht, ergibt sich daraus im Laufe der Zeit, dass dort bestimmte Bevölkerungsgruppen stärker überwacht und durch die häufiger durchgeführten Kontrollen letztendlich per se kriminalisiert werden. Der (vermeintliche) Tatbestand kann jedoch unter Umständen lediglich darauf basieren, dass entsprechende Vergleichswerte unter Berücksichtigung der gleichen Merkmale aus anderen Stadtvierteln nicht im adäquaten Maße erhoben wurden. Vollständigkeit bedeutet keinesfalls, wahllos möglichst viele Daten zu erfassen – entscheidend ist die Auswahl.

2. Repräsentativität der Daten
Die Repräsentativität zeichnet sich dadurch aus, dass die Daten eine tatsächliche Grundgesamtheit und somit entsprechend die Realität abbilden, die stellvertretend im Sinne der Aufgabenstellung ist. Sind die Daten nicht repräsentativ, hat dies zur Folge, dass daraus ein Bias resultiert. Ein Bias entsteht durch einen Fehler bei der Datenerhebung, der zu einem fehlerhaften Ergebnis führt. Dieses Phänomen tritt beispielsweise im Recruiting von Führungskräften auf, wenn hier größtenteils Daten aus der Vergangenheit berücksichtigt werden und in dieser Zeit überwiegend Männer in Führungspositionen waren. Mit der Konsequenz, dass die KI-basierte Anwendung daraus folgern müsste, dass Männer für diese Positionen qualifizierter seien. Ergebnisse wie diese zeigen, dass durch KI-Systeme nicht zwangsläufig Objektivität erreichbar ist.

3. Nachvollziehbarkeit der Daten
Für die Überprüfung der Datenqualität ist es essenziell, dass nachvollzogen werden kann, aus welchen Quellen die verwendeten Daten stammen. Sind die Quellen nicht transparent, das heißt nicht nachvollziehbar, ist es nicht möglich eine notwendige Validierung der Daten vorzunehmen, was sich letztendlich auf deren Qualität negativ auswirken kann. Für eine bestmögliche Bewertung und Messung sowohl der Datenqualität als auch der Qualität der Quellen sowie der Ableitung gezielter Verbesserungsmaßnahmen, müssen im Vorfeld entsprechend Vorgaben definiert werden. Hierfür gilt es, die für den Prozess relevanten Kriterien zu bestimmen, etwa Konsistenz oder Einheitlichkeit. Anhand der gewählten Kriterien ist es dann möglich, die erhobenen Daten bezüglich ihrer konsistenten Qualität zu überprüfen. Hierbei sind noch zwei relevante Aspekte zu bedenken: Zum einen kommen Daten oft aus unterschiedlichen Quellen mit verschiedenen Formaten, die vor dem Einsatz auf ihre Utilität verifiziert werden müssen. Zum anderen ist die Nachvollziehbarkeit – gerade im Produktionsumfeld – auch durch die Förderung von qualitativ hochwertigen und sicheren Sensoren abhängig.

4. Aktualität der Daten
Die grundsätzliche Idee beim Maschinellen Lernen oder KI ist die Extraktion von Wissen aus Daten. Aus diesem Grund muss sichergestellt werden, dass die generierten, respektive verwendeten Daten auch die passenden Informationen und Erfahrungen enthalten, um mit den KI-Algorithmen das Problem richtig und vertrauenswürdig zu lösen. Nicht zuletzt aufgrund der Tatsache, dass Menschen sich nicht linear verhalten, können veraltete Daten zu falschen Ergebnissen führen. Aus diesem Grund sollten – in Abhängigkeit von der Anwendung – möglichst die aktuellsten Daten verwendet werden.

5. Korrektheit der Daten
Die Daten müssen mit der Realität übereinstimmen und damit für die Anwendung korrekt sein. Die Auswahl der Daten bedingt, dass diese Anforderungen mit einer detaillierten Analyse ermittelt wurden – als Methode kann hier das Mapping gegen Daten, deren Korrektheit bestätigt ist, oder definierte, abgestimmte Plausibilitätsregeln eingesetzt werden. So lässt sich sicherstellen, dass zwischen den – zur Entwicklung oder im Weiteren in der Anwendung – genutzten Daten und der Realität keine Diskrepanz besteht.

Cyber-Sicherheit und Künstliche Intelligenz

Cyber-Sicherheitssysteme, die KI berücksichtigen, werden in der Zukunft helfen, deutlich besser die intelligenten Hacker und deren Angriffe zu entdecken, Schäden zu vermeiden und Risiken im gewünschten Digitalisierungsprozess zu minimieren. Mithilfe von Künstlicher Intelligenz kann die Erkennungsrate von Angriffen im Netzwerk und in ubiquitären IT-Endgeräten (Smartphone, Notebook, Server, IoT etc.) deutlich erhöht werden. Anders gesagt, können die Erkennungsraten von IT-Systemen, die keine Form der Künstlichen Intelligenz verwenden, nicht dauerhaft auf dem gleichen Sicherheits- und Schutzniveau gehalten werden, wenn auch Angreifer Methoden der KI einsetzen, um IT-Systeme anzugreifen.
Somit hat KI vermehrt Auswirkungen auf die Cyber-Sicherheitslage, die durch aktuelle Lagebilder aufzeigbar gemacht werden muss.

Künstliche Intelligenz - Frühwarnsystem
Abbildung: Frühwarnsystem mit Künstlicher Intelligenz © Copyright-Vermerk


Eine große Herausforderung für die Verteidiger ist, für welche der sehr vielen erkannten sicherheitsrelevanten Ereignisse zusätzliche noch menschliche Analysten notwendig sind. Nicht alle Ereignisse können durch Spezialisten verarbeitet werden, da die Anzahl der Ereignisse die Verarbeitungsfähigkeit und Verarbeitungskapazitäten menschlicher Analysten an ihre Grenzen bringen. Diesen Umstand können Angreifer ausnutzen und die Verteidiger gezielt ablenken, um unbemerkt in das IT-System einzudringen. Künstliche Intelligenz kann dabei helfen, die Ereignisse in Echtzeit zu analysieren und situationsgerecht zu entscheiden, ob ein menschliches Eingreifen überhaupt noch notwendig ist. In anderen
Einsatzszenarien, bei denen eine Teilautonomie technisch nicht möglich ist und der Mensch zwingend eingebunden werden muss, kann der Einsatz von KI die Aufgaben und Tätigkeiten des Menschen wesentlich unterstützen. Damit werden die vorhandenen Ressourcen gezielter eingesetzt und das Cyber-Sicherheitsniveau insgesamt erhöht. Situationsgerecht bedeutet dabei, dass klassische Verfahren auf Basis von Signaturen nur noch unterstützend eingesetzt werden und neuartige, verhaltensbasierte Verfahren, wie fortgeschrittene Anomalie-Erkennung oder Predictive Analysis, Einzug halten. Durch den Einsatz von KI können solche Verfahren möglich werden und einen deutlichen Fortschritt für die IT-Sicherheit bringen.
Weiterhin profitieren Identitäts- und Zugangsmanagementsysteme von der automatischen Auswertung der Bewegungsdaten von Nutzern, um nur berechtigten Nutzern den Zugriff zu IT-Systemen und Anwendungen zu geben. Die Sammlung, Verarbeitung und Speicherung von personenbezogenen Daten müssen jedoch im Einklang mit den datenschutzrechtlichen Bestimmungen (zum Beispiel DSGVO)
stehen. Hierbei ist zu beachten, dass die Datenschutzkonformität eine Asymmetrie bei Angriffsszenarien zwischen Verteidiger und Angreifer darstellen kann. Neuartige, passive Identifikations- und Authentifizierungsverfahren können einen Beitrag leisten und zu einer erhöhten Resilienz und Robustheit von IT-Systemen führen. Durch die fehlende aktive Nutzerinteraktion bei dieser Form der Identifizierung und Authentifizierung, beispielsweise durch die Auswertung von Sensordaten im Smartphone, können IT-Systeme sehr einfach sicherer gemacht werden. Aber auch im Bereich der risikobasierten und adaptiven Authentifizierung wird die KI helfen, angemessene Cyber-Sicherheit situationsbedingt umzusetzen und so die Schäden deutlich zu minimieren.


IT-Sicherheit für Künstliche Intelligenz

Eine sichere und vertrauenswürdige Umsetzung eines KI-Systems hilft das Vertrauen in die Nutzung zu steigern (z.B. eigene Technologie „Made in Germany“ / “Made in EU”, …).
Die Zusammenarbeit von erfahrenen Experten der jeweiligen Anwendungsdomäne sowie der KI-Entwicklung und Cyber-Sicherheit hilft, die für das entsprechende Anwendungsgebiet (Autonomes Fahren, Personal Assistent, Cyber-Sicherheit, …) KI-Systeme vertrauenswürdig konzipieren und umsetzen können.
Der Stand der Technik an Cyber-Sicherheitsmaßnahmen für Integrität, Vertraulichkeit, Datenschutz und Verfügbarkeit muss definieren und nachhaltig umsetzen, um die Manipulationsmöglichkeiten und den Missbrauch der KI-Anwendungen und der genutzten Daten zu minimieren.

Künstliche Intelligenz - IT-Sicherheit
Abbildung: IT-Sicherheit und Künstliche-intelligent © Copyright-Vermerk



Ethik und Künstliche Intelligenz

Momentan ist der Tenor der meisten Artikel zum Thema Künstliche Intelligenz (KI) relativ konformistisch – unverzüglich wird der Leser dahingehend sensibilisiert, dass sich hierdurch enorme Chancen auftun, die nicht ungenutzt bleiben dürfen, um international nicht abgehängt zu werden. Eher nebenbei erwähnt wird, dass trotz aller Euphorie auch die Risiken in Betracht zu ziehen seien. Da aus diesen jedoch Implikationen für die gesamte Gesellschaft resultieren können, ist es nicht nur ratsam, sondern erforderlich den Einsatz von KI in allen Bereichen – auch im Kontext der Sicherheit – unter ethischen Aspekten zu bewerten.

Unbestritten liegen die Vorteile beim Einsatz von KI auf der Hand: Mittels KI-Algorithmen können unter anderem Unternehmensprozesse effizienter gestaltet, Kosten eingespart oder auch Fehlerquellen im Produktionsablauf detektiert und beseitigt werden. Alles gute Argumente, die für einen extensiven Einsatz von KI sprechen.

Künstliche Intelligenz - Ethik
Abbildung: Ethik und Künstliche Intelligenz © Copyright-Vermerk

Woraus sollte also die Notwendigkeit einer Ethik-Diskussion resultieren?

Auch dafür gibt es substanzielle Gründe: Ein wesentlicher ist, dass weltweit Konsumenten, denen im Regelfall der Einblick in die Technologie sowie die notwendigen Grundlagen für deren Folgenabschätzung fehlt, Unternehmen in der Verantwortung sehen, unter anderem KI ethisch vertretbar einzusetzen. Somit sind die Mitgestalter der digitalen Evolution im Prinzip gefordert – nicht nur hinsichtlich ihres Unternehmens, sondern gleichwohl im Sinne des Einzelnen als auch der Gesellschaft – gewissenhaft zu handeln.

Diese Verantwortlichkeit resultiert nicht zuletzt daraus, dass im Speziellen der Einsatz von KI nicht nur dem einzelnen Nachteile bringt, sondern ganzen Gesellschaften massiv Schaden zufügen kann. Denn während einer Person hierdurch eventuell ein Verlust bezüglich der digitalen Sicherheit, Privatsphäre, Reputation oder auch die Verletzung des Grundsatzes der Gleichbehandlung droht, potenzieren sich die möglichen Folgen für die Gesellschaft um ein Vielfaches. Angefangen bei der Schwächung der Wirtschaftskraft eines Lands, da bei Unternehmen aufgrund der zunehmenden Komplexität sowie dem Einsatz von KI die Verwundbarkeit und somit das Risiko zur Zielscheibe von Angriffen zu werden steigt. Des Weiteren sind aufgrund dieser Faktoren auch negative Effekte in Bezug auf die nationale Sicherheit oder die politische Stabilität als mögliche Konsequenzen denkbar.

Folglich sollten potenzielle Unwägbarkeiten, die aus dem Einsatz resultieren können, tatsächlich genauer betrachtet werden. Denn de facto ist in einigen Bereichen der Reifegrad der Technologie so gering, dass die Effekte, die aus deren Einsatz möglicherweise resultieren, sich noch nicht umfassend prognostizieren lassen. Anhand von Beispielen, die bereits in der Entwicklung weiter fortgeschritten sind – wie etwa das selbstfahrende Automobil – zeigt sich jedoch, wie groß hier der Diskussionsbedarf ist; zum Beispiel im Hinblick auf die Bewertung fehlerhafter Entscheidungen, die unter anderem zur Verursachung von Unfällen geführt haben, und möglicher Konsequenzen durch den Verlust der Vertraulichkeit bezüglich der Mobilität.

KI und Cyber-Sicherheit ist auch eine Frage der Ethik

Da nicht nur aus dem Einsatz von KI neue Schwachstellen resultieren, sondern auch mittels KI neue Angriffsmöglichkeiten auf Staat und Unternehmen realisierbar sind, erscheint es als eine logische Schlussfolgerung kriminelle Attacken auf gleicher Ebene abzuwehren – also mithilfe von KI den Schutz von IT-Systemen und IT-Infrastrukturen zu gewährleisten. Obwohl KI im Kontext der IT-Sicherheit unweigerlich als probates Mittel zur Abwehr scheint, ist auch hier – wie bei jedem Einsatz der KI – die Frage zu diskutieren, in welchem Rahmen dies angemessen ist.

Warum dieser Diskurs nötig ist und welche Forschungsfragen in diesem Kontext zu bearbeiten sind, wird nachfolgend exemplarisch anhand von drei Szenarien aus dem Bereich des Schutzes der IT dokumentiert.

1. Privatheit vs. Allgemeinwohl: Problem Schutz von Daten

Die Berücksichtigung der Annahme, dass mittels KI eine Optimierung der Cyber-Sicherheitsmaßnahmen realisierbar ist, bedeutet, dass ein Angriff schneller und präziser detektiert werden kann, je mehr Daten mit sicherheitsrelevanten Informationen zur Verfügung stehen. Daraus lässt sich im Weiteren auch ableiten, dass für eine bestmögliche Kennung in bestimmten Fällen die Einbeziehung personenbezogener Daten von Mitarbeitern unverzichtbar ist, da viele Angriffe mithilfe von Social Engineering und Malware über die Endgeräte der Mitarbeiter indirekt durchgeführt werden. Eine Notwendigkeit für deren Hinzunahme könnte sich zum Beispiel für den Fall ergeben, wenn ein Energieversorger angegriffen wird, da dies eine präzise Ursachenforschung für die schnellstmögliche Reaktion zur Gewährleistung der Stromversorgung verlangt. Der Bedarf ist theoretisch nachvollziehbar – andererseits werden dadurch die Individualrechte außer Kraft gesetzt, da die Nutzung von personenbezogenen Daten durch die DSGVO exakt limitiert ist. Im konkreten Fall würde dies bedeuten, dass durch eine Analyse der Daten parallel das Verhalten der Mitarbeiter ausgewertet und somit deren Privatsphäre verletzt wird. 

Daraus resultiert folgendes Dilemma: Die digitale Ethik fordert, dass keine grundlegenden Rechte wie die Privatheit zugunsten eines höheren Ziels völlig aufgegeben werden dürfen. Dagegen steht die Prämisse des Strebens nach dem (maximierten) Gesamtnutzen für die Gesellschaft. Aus dieser resultiert dann zwangsläufig die Fragestellung, wann es angeraten oder sogar unabdingbar ist, die Rechte des Individuums zugunsten des Wohles für die Gemeinschaft aufzuheben. Eine mögliche Annäherung zur Auflösung dieses Dilemmas könnte sein, hierfür Grenzen zu definieren, indem Kriterien dafür festgelegt werden, wann das Individualrecht nachrangig zu behandeln ist. Hierfür bedarf es unter anderem der Forschung bezüglich der Wertvorstellungen, auch um sicherzustellen, dass die Wertmaßstäbe zur Beurteilung mit den höheren Zielen einer Gesellschaft konform sind.

2. Neutralität vs. Voreingenommenheit: Problem Bias

Aufgrund der Quantität als auch Vielfältigkeit an Angriffsarten, mit denen Unternehmen und insgesamt staatliche Institutionen tagtäglich attackiert werden, erscheint es sinnvoll, den IT-Sicherheitsverantwortlichen mithilfe von KI Unterstützung zu bieten. Diese könnte dergestalt sein, dass automatisiert eine Selektion der zehn gravierendsten Bedrohungen inklusive Handlungsempfehlungen zur Verfügung gestellt werden, die dann priorisiert im Sinn der optimalen Schadensbegrenzung umsetzbar sind. Obwohl diese Vorgehensweise per se sinnvoll erscheint, entsteht daraus jedoch potenziell ein Dilemma in Bezug auf die richtige Handlungsweise, allein basierend auf der Tatsache einer algorithmischen Voreingenommenheit beziehungsweise Verzerrung. Denn die Auswahl der sicherheitsrelevanten Daten, geprägt unter anderem durch Erfahrungswerte aus der Vergangenheit und/oder Vorurteile, beeinflusst die zukünftigen Ergebnisse. Das wird zum Beispiel deutlich an statistischen Analysen im Kontext der Polizeiarbeit in den USA – die Annahme, dass eine bestimmte Bevölkerungsgruppe eher zu Straftaten neigt, legt den Fokus auf diese und wird dann kontinuierlich anhand aktualisierter Werte weiter bestätigt. Analog dazu wäre es beispielsweise vorstellbar, dass komplexe Angriffe auf Institutionen bevorzugt mit China in Verbindung gebracht werden. Dies hätte dann zur Folge, dass ein Hauptaugenmerk auf Angriffe aus diesem Land läge, die automatisch als gravierender bewertet würden, inklusive obligatorischer Vorgaben für die Ergreifung entsprechender Maßnahmen. Die Analyse, ob es der Realität entspräche oder ob der Angriff einer anderen Nation viel kritischer einzustufen wäre, würde dann sekundär. Da sich im Einzelfall aus der Masse der vorliegenden sicherheitsrelevanten Daten nicht ad hoc entscheiden lässt, ob seitens der KI die richtigen Präferenzen getroffen worden sind, besteht hier ein Forschungsbedarf dahingehend, wie die algorithmische Voreingenommenheit auf ein Minimum reduzierbar ist. Dabei ist unter anderem relevant zu untersuchen, wie Entscheidungen – unabhängig von Vorurteilen, Vergangenheitswerten oder einem bestimmten (wirtschaftlichen/gesellschaftlichen) Kontext – getroffen werden können.

3. Strike Back: Problem Unvollständigkeit der Daten

Dem Konstrukt des ‚Strike Back’ liegt die Hypothese zugrunde, dass ein Angriff durch einen Gegenangriff beendet werden kann. Unter Einsatz von KI wäre es theoretisch möglich, eine vollkommen neutrale Einschätzung zu ermitteln, was unternommen werden müsste, um den Angreifer zum Aufgeben zu motivieren. Die ethische Frage in diesem Kontext dreht sich um den Begriff der Neutralität und ob es überhaupt möglich ist, die Vollständigkeit der Daten zu erreichen, um eine ausgewogene und verantwortliche Entscheidung durch KI-Systeme errechnen zu lassen. Davon ausgehend, dass ein Strike Back automatisiert erfolgt, könnte möglicherweise ein Schaden auf einer höheren Ebene angerichtet werden, der moralisch nicht vertretbar wäre – wie etwa ein Gegenschlag, der gleichzeitig auch die Stromversorgung eines Krankenhauses lahmlegen würde. Fragestellungen wie diese zeigen den eklatanten Forschungsbedarf dahingehend auf, inwieweit es leistbar ist, vertrauenswürdige KI-Systeme zu entwickeln, die den Schutz der Zivilgesellschaft gewährleisten können.

Fazit der Ethik bezogen auf KI und Cyber-Sicherheit

Beim Einsatz von KI im Bereich der Cyber-Sicherheit muss der gesellschaftliche Diskurs in zwei Richtungen geführt werden. Zum einen dahingehend, welchen Stellenwert die Cyber-Sicherheit einnehmen soll; hierzu gehören auch inhaltliche Definitionen wie „Welche Werte sollen durch sie gewahrt werden“ (etwa physische Unversehrtheit oder ökonomisches Wohlergehen) oder auch „Ab welchem Grad der Cyber-Sicherheit gilt eine Situation als sicher“. Denn dies hat Auswirkungen darauf, was für eine Gesellschaft akzeptabel ist, beispielsweise der automatisierte Einsatz von Strike Back. Zum anderen werfen die Szenarien die Frage auf, wie weit es möglich ist, sich auf Technologie – etwa KI – zu verlassen.

Nachvollziehbarkeit von Entscheidungen als Prinzip der KI

Wegen der Unklarheit, ob KI-Systeme eine perfekte Lösung sein können, lässt das den Schluss zu, dass es insbesondere aufgrund der Komplexität sowie der schnellen Weiterentwicklung angemessen ist, grundsätzlich bei wichtigen Anwendungen den Menschen als kontrollierenden Faktor gemäß dem Grundsatz „Keep the human in the loop“ einzubinden.

Künstliche Intelligenz Ergebnis als Handlungsvorschlag mit individuellen Wissen und Erfahrung erweitern
Abbildung: Ergebnisse der KI werden am besten als Handlungsvorschlag zur Verfügung gestellt – © Copyright-Vermerk

Wie in der Abbildung zu erkennen ist, sind bei den meisten KI-Anwendungen die Eingabedaten immer nur ein Teil des gesamten Wissens und Erfahrungen in einem Themenfeld. Idealerweise sind die verfügbaren qualifizierten Eingabedaten für die KI besonders signifikant, um ein gutes Ergebnis zu erzielen. Dennoch kann ein KI-System nicht alle Daten nutzen, weil sie nicht als Daten verfügbar sind, oder der Aufwand viel zu groß ist, diese verfügbar zu machen.

Folglich sollte das Ergebnis von KI-System stets als Handlungsempfehlung verstanden werden und es muss sichergestellt sein, dass der Mensch jederzeit entscheiden kann, ob er dieser folgt oder nicht. Damit wird die Selbstbestimmtheit und Souveränität der Menschen gefördert sowie gleichzeitig die Vertrauenswürdigkeit in KI-Systeme erhöht.

Siehe auch: ChatGPT und Cyber-Sicherheit



Weitere Informationen zum Begriff “Künstliche Intelligenz”:

Vorlesung: „Vorlesung: Künstliche Intelligenz und Cyber-Sicherheit“

Artikel:
„Sei gewarnt! Vorhersage von Angriffen im Online-Banking“

„Künstliche Intelligenz und Cybersicherheit“

„Künstliche Intelligenz und Cybersicherheit – Unausgegoren aber notwendig“

„Ethik und künstliche Intelligenz – Wer macht die Spielregeln für die KI?“

Vorträge:
„Sicherheit und Vertrauenswürdigkeit von KI‐Systemen“

„Cyber-Sicherheit braucht Künstliche Intelligenz – keine Künstliche Intelligenz ohne Cyber-Sicherheit“

Studien:
“Künstliche Intelligenz – Potential und nachhaltige Veränderung der Wirtschaft in Deutschland 2019”

“Enquete‐Kommission Künstliche Intelligenz”


“Künstliche Intelligenz und Cybersicherheit – Diskussionsgrundlage für den Digitalgipfel 2018”

Vorlesungen: „Vorlesungen zum Lehrbuch Cyber-Sicherheit

Bücher:

Lehrbuch Cyber-Sicherheit – Das Lehrbuch für Konzepte, Mechanismen, Architekturen und Eigenschaften von Cyber-Sicherheitssystemen in der Digitalisierung

Bücher im Bereich Cyber-Sicherheit und IT-Sicherheit zum kostenlosen Download

  • Sicher im Internet: Tipps und Tricks für das digitale Leben
  • Der IT-Sicherheitsleitfaden
  • Firewall-Systeme – Sicherheit für Internet und Intranet, E-Mail-Security, Virtual Private Network, Intrusion-Detection-System, Personal Firewalls

Forschungsinstitut für Internet-Sicherheit (IT-Sicherheit, Cyber-Sicherheit)
Master-Studiengang Internet-Sicherheit (IT-Sicherheit, Cyber-Sicherheit)

Marktplatz IT-Sicherheit

It’s all about Trust!

Zurück zur Übersicht




Summary
Künstliche Intelligenz
Article Name
Künstliche Intelligenz
Description
Künstliche Intelligenz hat das Ziel, automatisiert „menschenähnliche Intelligenz“ in Algorithmen nachzubilden. Bei künstlicher Intelligenz kann zwischen schwacher und starker künstlicher Intelligenz (KI) unterschieden werden.
Author
Publisher Name
Institut für Internet-Sicherheit – if(is)
Publisher Logo
Künstliche Intelligenz als Übersichtsbild Maschinelles Lernen und Deep Learning
Künstliche Intelligenz Prof. Dr. Norbert Pohlmann - Cyber-Sicherheitsexperten