Künstliche Intelligenz - Prof. Dr. Norbert Pohlmann
Künstliche Intelligenz | |
![]() | Inhaltsverzeichnis Was ist Künstliche Intelligenz?
Data ScienceDie Wissenschaft „Data Science“, ein Fachgebiet der Informatik, beschäftigt sich mit der Extraktion von Wissen aus den Informationen in Daten. Da es immer mehr Daten mit Informationen gibt, kann auch immer mehr Wissen aus den Informationen der Daten abgeleitet werden, insbesondere auch im Bereich der Cyber-Sicherheit. Künstliche IntelligenzDabei setzt „Künstliche Intelligenz“ intelligentes Verhalten in Algorithmen um, mit der Zielsetzung, automatisiert „menschenähnliche Intelligenz“ so gut wie möglich nachzubilden. Bei künstlichen Intelligenzen kann zwischen schwacher und starker Künstliche Intelligenz (KI) unterschieden werden. Eine starke KI soll eine Intelligenz schaffen, die dem Menschen gleicht, kommt oder sogar übertrifft, während die schwache KI sich in der Regel mit konkreten Anwendungsproblemen des menschlichen Denkens beschäftigt. Maschinelles LernenMaschinelles Lernen (Machine Learning/ML) ist ein Begriff im Bereich der Künstlichen Intelligenz für die „künstliche“ Generierung von Wissen aus den Informationen in Daten mit der Hilfe von IT-Systemen. Mithilfe der Algorithmen des maschinellen Lernens werden mit vorhandenen Datenbeständen Muster und Gesetzmäßigkeiten erkannt und verallgemeinert, um damit neue Problemlösungen umzusetzen. In Lernphasen lernen entsprechende ML-Algorithmen, aus vielen diversen Beispielen simple Muster und Strukturen, hin zu komplexen Merkmalen und Gesetzmäßigkeiten zu erkennen. Daraus entstehende Regeln können auf neue Daten und ähnliche Situationen angewendet werden, in denen die Künstliche Intelligenz (KI) beispielsweise entscheiden muss, ob es sich um einen Angriff oder eine legitime Nutzeraktion handelt. Maschinelles Lernen wird noch effektiver durch Deep Learning. Deep LearningDeep Learning ist eine Spezialisierung des maschinellen Lernens und nutzt vorwiegend künstliche neuronale Netze (KNN). ![]() Qualität der Eingabedaten von KI-SystemenDamit ein KI-System sehr gute Ergebnisse erzielen kann müssen unterschiedliche Aspekte berücksichtigt werden. Relevante Faktoren sind:
Paradigma: Garbage in, Garbage out (GIGO)![]() Garbage in, Garbage out bedeutet im Umfeld der KI, dass unabhängig von der Qualität eines KI-Systems die Ergebnisse schlecht sind, wenn die Eingabedaten eine schlechte Qualität haben. Dies leitet sich aus der grundsätzlichen Idee ab: Extraktion von Wissen aus Daten. Wenn in den Daten keine Informationen stehen, kann auch kein Wissen extrahiert werden. Die Ergebnisqualität eines KI-Systems kann normalerweise nicht besser sein als die Qualität der Eingabedaten. Aus diesem Grund müssen die Eingabedaten eine hohe Qualität ausweisen, um ein gutes Ergebnis zu erzielen. Im Folgenden wird der Faktor Qualität der Eingabedaten diskutiert, um ein gutes Verständnis dafür zu erhalten. Faktoren der Qualität der Eingabedaten bei KI-SystemenWegen der Wichtigkeit der Qualität der Eingabedaten sollte ein Standard der Datenqualität für KI-Systeme etablieret werden. Im Einzelnen sind dabei unter anderem Vollständigkeit, Repräsentativität, Nachvollziehbarkeit, Aktualität und Korrektheit zu berücksichtigen. Außerdem sollte es obligatorisch sein, entsprechende Positionen im Unternehmen zu konstituieren, die für das Modell der Datengewinnung und -nutzung zuständig sowie für die Kontrolle der ordnungsgemäßen Umsetzung verantwortlich sind. ![]() 1. Vollständigkeit der Daten 2. Repräsentativität der Daten 3. Nachvollziehbarkeit der Daten 4. Aktualität der Daten 5. Korrektheit der Daten Cyber-Sicherheit und Künstliche IntelligenzCyber-Sicherheitssysteme, die KI berücksichtigen, werden in der Zukunft helfen, deutlich besser die intelligenten Hacker und deren Angriffe zu entdecken, Schäden zu vermeiden und Risiken im gewünschten Digitalisierungsprozess zu minimieren. Mithilfe von Künstlicher Intelligenz kann die Erkennungsrate von Angriffen im Netzwerk und in ubiquitären IT-Endgeräten (Smartphone, Notebook, Server, IoT etc.) deutlich erhöht werden. Anders gesagt, können die Erkennungsraten von IT-Systemen, die keine Form der Künstlichen Intelligenz verwenden, nicht dauerhaft auf dem gleichen Sicherheits- und Schutzniveau gehalten werden, wenn auch Angreifer Methoden der KI einsetzen, um IT-Systeme anzugreifen. ![]()
IT-Sicherheit für Künstliche IntelligenzEine sichere und vertrauenswürdige Umsetzung eines KI-Systems hilft das Vertrauen in die Nutzung zu steigern (z.B. eigene Technologie „Made in Germany“ / “Made in EU”, …). ![]() Ethik und Künstliche IntelligenzMomentan ist der Tenor der meisten Artikel zum Thema Künstliche Intelligenz (KI) relativ konformistisch – unverzüglich wird der Leser dahingehend sensibilisiert, dass sich hierdurch enorme Chancen auftun, die nicht ungenutzt bleiben dürfen, um international nicht abgehängt zu werden. Eher nebenbei erwähnt wird, dass trotz aller Euphorie auch die Risiken in Betracht zu ziehen seien. Da aus diesen jedoch Implikationen für die gesamte Gesellschaft resultieren können, ist es nicht nur ratsam, sondern erforderlich den Einsatz von KI in allen Bereichen – auch im Kontext der Sicherheit – unter ethischen Aspekten zu bewerten. Unbestritten liegen die Vorteile beim Einsatz von KI auf der Hand: Mittels KI-Algorithmen können unter anderem Unternehmensprozesse effizienter gestaltet, Kosten eingespart oder auch Fehlerquellen im Produktionsablauf detektiert und beseitigt werden. Alles gute Argumente, die für einen extensiven Einsatz von KI sprechen. ![]() Woraus sollte also die Notwendigkeit einer Ethik-Diskussion resultieren? Auch dafür gibt es substanzielle Gründe: Ein wesentlicher ist, dass weltweit Konsumenten, denen im Regelfall der Einblick in die Technologie sowie die notwendigen Grundlagen für deren Folgenabschätzung fehlt, Unternehmen in der Verantwortung sehen, unter anderem KI ethisch vertretbar einzusetzen. Somit sind die Mitgestalter der digitalen Evolution im Prinzip gefordert – nicht nur hinsichtlich ihres Unternehmens, sondern gleichwohl im Sinne des Einzelnen als auch der Gesellschaft – gewissenhaft zu handeln. Diese Verantwortlichkeit resultiert nicht zuletzt daraus, dass im Speziellen der Einsatz von KI nicht nur dem einzelnen Nachteile bringt, sondern ganzen Gesellschaften massiv Schaden zufügen kann. Denn während einer Person hierdurch eventuell ein Verlust bezüglich der digitalen Sicherheit, Privatsphäre, Reputation oder auch die Verletzung des Grundsatzes der Gleichbehandlung droht, potenzieren sich die möglichen Folgen für die Gesellschaft um ein Vielfaches. Angefangen bei der Schwächung der Wirtschaftskraft eines Lands, da bei Unternehmen aufgrund der zunehmenden Komplexität sowie dem Einsatz von KI die Verwundbarkeit und somit das Risiko zur Zielscheibe von Angriffen zu werden steigt. Des Weiteren sind aufgrund dieser Faktoren auch negative Effekte in Bezug auf die nationale Sicherheit oder die politische Stabilität als mögliche Konsequenzen denkbar. Folglich sollten potenzielle Unwägbarkeiten, die aus dem Einsatz resultieren können, tatsächlich genauer betrachtet werden. Denn de facto ist in einigen Bereichen der Reifegrad der Technologie so gering, dass die Effekte, die aus deren Einsatz möglicherweise resultieren, sich noch nicht umfassend prognostizieren lassen. Anhand von Beispielen, die bereits in der Entwicklung weiter fortgeschritten sind – wie etwa das selbstfahrende Automobil – zeigt sich jedoch, wie groß hier der Diskussionsbedarf ist; zum Beispiel im Hinblick auf die Bewertung fehlerhafter Entscheidungen, die unter anderem zur Verursachung von Unfällen geführt haben, und möglicher Konsequenzen durch den Verlust der Vertraulichkeit bezüglich der Mobilität. KI und Cyber-Sicherheit ist auch eine Frage der EthikDa nicht nur aus dem Einsatz von KI neue Schwachstellen resultieren, sondern auch mittels KI neue Angriffsmöglichkeiten auf Staat und Unternehmen realisierbar sind, erscheint es als eine logische Schlussfolgerung kriminelle Attacken auf gleicher Ebene abzuwehren – also mithilfe von KI den Schutz von IT-Systemen und IT-Infrastrukturen zu gewährleisten. Obwohl KI im Kontext der IT-Sicherheit unweigerlich als probates Mittel zur Abwehr scheint, ist auch hier – wie bei jedem Einsatz der KI – die Frage zu diskutieren, in welchem Rahmen dies angemessen ist. Warum dieser Diskurs nötig ist und welche Forschungsfragen in diesem Kontext zu bearbeiten sind, wird nachfolgend exemplarisch anhand von drei Szenarien aus dem Bereich des Schutzes der IT dokumentiert. 1. Privatheit vs. Allgemeinwohl: Problem Schutz von Daten Die Berücksichtigung der Annahme, dass mittels KI eine Optimierung der Cyber-Sicherheitsmaßnahmen realisierbar ist, bedeutet, dass ein Angriff schneller und präziser detektiert werden kann, je mehr Daten mit sicherheitsrelevanten Informationen zur Verfügung stehen. Daraus lässt sich im Weiteren auch ableiten, dass für eine bestmögliche Kennung in bestimmten Fällen die Einbeziehung personenbezogener Daten von Mitarbeitern unverzichtbar ist, da viele Angriffe mithilfe von Social Engineering und Malware über die Endgeräte der Mitarbeiter indirekt durchgeführt werden. Eine Notwendigkeit für deren Hinzunahme könnte sich zum Beispiel für den Fall ergeben, wenn ein Energieversorger angegriffen wird, da dies eine präzise Ursachenforschung für die schnellstmögliche Reaktion zur Gewährleistung der Stromversorgung verlangt. Der Bedarf ist theoretisch nachvollziehbar – andererseits werden dadurch die Individualrechte außer Kraft gesetzt, da die Nutzung von personenbezogenen Daten durch die DSGVO exakt limitiert ist. Im konkreten Fall würde dies bedeuten, dass durch eine Analyse der Daten parallel das Verhalten der Mitarbeiter ausgewertet und somit deren Privatsphäre verletzt wird. Daraus resultiert folgendes Dilemma: Die digitale Ethik fordert, dass keine grundlegenden Rechte wie die Privatheit zugunsten eines höheren Ziels völlig aufgegeben werden dürfen. Dagegen steht die Prämisse des Strebens nach dem (maximierten) Gesamtnutzen für die Gesellschaft. Aus dieser resultiert dann zwangsläufig die Fragestellung, wann es angeraten oder sogar unabdingbar ist, die Rechte des Individuums zugunsten des Wohles für die Gemeinschaft aufzuheben. Eine mögliche Annäherung zur Auflösung dieses Dilemmas könnte sein, hierfür Grenzen zu definieren, indem Kriterien dafür festgelegt werden, wann das Individualrecht nachrangig zu behandeln ist. Hierfür bedarf es unter anderem der Forschung bezüglich der Wertvorstellungen, auch um sicherzustellen, dass die Wertmaßstäbe zur Beurteilung mit den höheren Zielen einer Gesellschaft konform sind. 2. Neutralität vs. Voreingenommenheit: Problem Bias Aufgrund der Quantität als auch Vielfältigkeit an Angriffsarten, mit denen Unternehmen und insgesamt staatliche Institutionen tagtäglich attackiert werden, erscheint es sinnvoll, den IT-Sicherheitsverantwortlichen mithilfe von KI Unterstützung zu bieten. Diese könnte dergestalt sein, dass automatisiert eine Selektion der zehn gravierendsten Bedrohungen inklusive Handlungsempfehlungen zur Verfügung gestellt werden, die dann priorisiert im Sinn der optimalen Schadensbegrenzung umsetzbar sind. Obwohl diese Vorgehensweise per se sinnvoll erscheint, entsteht daraus jedoch potenziell ein Dilemma in Bezug auf die richtige Handlungsweise, allein basierend auf der Tatsache einer algorithmischen Voreingenommenheit beziehungsweise Verzerrung. Denn die Auswahl der sicherheitsrelevanten Daten, geprägt unter anderem durch Erfahrungswerte aus der Vergangenheit und/oder Vorurteile, beeinflusst die zukünftigen Ergebnisse. Das wird zum Beispiel deutlich an statistischen Analysen im Kontext der Polizeiarbeit in den USA – die Annahme, dass eine bestimmte Bevölkerungsgruppe eher zu Straftaten neigt, legt den Fokus auf diese und wird dann kontinuierlich anhand aktualisierter Werte weiter bestätigt. Analog dazu wäre es beispielsweise vorstellbar, dass komplexe Angriffe auf Institutionen bevorzugt mit China in Verbindung gebracht werden. Dies hätte dann zur Folge, dass ein Hauptaugenmerk auf Angriffe aus diesem Land läge, die automatisch als gravierender bewertet würden, inklusive obligatorischer Vorgaben für die Ergreifung entsprechender Maßnahmen. Die Analyse, ob es der Realität entspräche oder ob der Angriff einer anderen Nation viel kritischer einzustufen wäre, würde dann sekundär. Da sich im Einzelfall aus der Masse der vorliegenden sicherheitsrelevanten Daten nicht ad hoc entscheiden lässt, ob seitens der KI die richtigen Präferenzen getroffen worden sind, besteht hier ein Forschungsbedarf dahingehend, wie die algorithmische Voreingenommenheit auf ein Minimum reduzierbar ist. Dabei ist unter anderem relevant zu untersuchen, wie Entscheidungen – unabhängig von Vorurteilen, Vergangenheitswerten oder einem bestimmten (wirtschaftlichen/gesellschaftlichen) Kontext – getroffen werden können. 3. Strike Back: Problem Unvollständigkeit der Daten Dem Konstrukt des ‚Strike Back’ liegt die Hypothese zugrunde, dass ein Angriff durch einen Gegenangriff beendet werden kann. Unter Einsatz von KI wäre es theoretisch möglich, eine vollkommen neutrale Einschätzung zu ermitteln, was unternommen werden müsste, um den Angreifer zum Aufgeben zu motivieren. Die ethische Frage in diesem Kontext dreht sich um den Begriff der Neutralität und ob es überhaupt möglich ist, die Vollständigkeit der Daten zu erreichen, um eine ausgewogene und verantwortliche Entscheidung durch KI-Systeme errechnen zu lassen. Davon ausgehend, dass ein Strike Back automatisiert erfolgt, könnte möglicherweise ein Schaden auf einer höheren Ebene angerichtet werden, der moralisch nicht vertretbar wäre – wie etwa ein Gegenschlag, der gleichzeitig auch die Stromversorgung eines Krankenhauses lahmlegen würde. Fragestellungen wie diese zeigen den eklatanten Forschungsbedarf dahingehend auf, inwieweit es leistbar ist, vertrauenswürdige KI-Systeme zu entwickeln, die den Schutz der Zivilgesellschaft gewährleisten können. Fazit der Ethik bezogen auf KI und Cyber-SicherheitBeim Einsatz von KI im Bereich der Cyber-Sicherheit muss der gesellschaftliche Diskurs in zwei Richtungen geführt werden. Zum einen dahingehend, welchen Stellenwert die Cyber-Sicherheit einnehmen soll; hierzu gehören auch inhaltliche Definitionen wie „Welche Werte sollen durch sie gewahrt werden“ (etwa physische Unversehrtheit oder ökonomisches Wohlergehen) oder auch „Ab welchem Grad der Cyber-Sicherheit gilt eine Situation als sicher“. Denn dies hat Auswirkungen darauf, was für eine Gesellschaft akzeptabel ist, beispielsweise der automatisierte Einsatz von Strike Back. Zum anderen werfen die Szenarien die Frage auf, wie weit es möglich ist, sich auf Technologie – etwa KI – zu verlassen. Nachvollziehbarkeit von Entscheidungen als Prinzip der KIWegen der Unklarheit, ob KI-Systeme eine perfekte Lösung sein können, lässt das den Schluss zu, dass es insbesondere aufgrund der Komplexität sowie der schnellen Weiterentwicklung angemessen ist, grundsätzlich bei wichtigen Anwendungen den Menschen als kontrollierenden Faktor gemäß dem Grundsatz „Keep the human in the loop“ einzubinden. ![]() Wie in der Abbildung zu erkennen ist, sind bei den meisten KI-Anwendungen die Eingabedaten immer nur ein Teil des gesamten Wissens und Erfahrungen in einem Themenfeld. Idealerweise sind die verfügbaren qualifizierten Eingabedaten für die KI besonders signifikant, um ein gutes Ergebnis zu erzielen. Dennoch kann ein KI-System nicht alle Daten nutzen, weil sie nicht als Daten verfügbar sind, oder der Aufwand viel zu groß ist, diese verfügbar zu machen. Folglich sollte das Ergebnis von KI-System stets als Handlungsempfehlung verstanden werden und es muss sichergestellt sein, dass der Mensch jederzeit entscheiden kann, ob er dieser folgt oder nicht. Damit wird die Selbstbestimmtheit und Souveränität der Menschen gefördert sowie gleichzeitig die Vertrauenswürdigkeit in KI-Systeme erhöht. Weitere Informationen zum Begriff “Künstliche Intelligenz”:Vorlesung: „Vorlesung: Künstliche Intelligenz und Cyber-Sicherheit“ Artikel: Vorträge: Vorlesungen: „Vorlesungen zum Lehrbuch Cyber-Sicherheit“ Bücher: Lehrbuch Cyber-Sicherheit – Das Lehrbuch für Konzepte, Mechanismen, Architekturen und Eigenschaften von Cyber-Sicherheitssystemen in der Digitalisierung Bücher im Bereich Cyber-Sicherheit und IT-Sicherheit zum kostenlosen Download
Forschungsinstitut für Internet-Sicherheit (IT-Sicherheit, Cyber-Sicherheit) Zurück zur Übersicht Summary ![]() Article Name Künstliche Intelligenz Description Künstliche Intelligenz hat das Ziel, automatisiert „menschenähnliche Intelligenz“ in Algorithmen nachzubilden. Bei künstlicher Intelligenz kann zwischen schwacher und starker künstlicher Intelligenz (KI) unterschieden werden. Author Prof. Norbert Pohlmann Publisher Name Institut für Internet-Sicherheit – if(is) Publisher Logo ![]() |
![]() |