slider

Im Sinne der Gesellschaft – Wissenschaft als Helfer für angewandte Ethik in der KI-unterstü - Prof. Dr. Norbert Pohlmann

Im Sinne der Gesellschaft – Wissenschaft als Helfer für angewandte Ethik in der KI-unterstützten IT

Wissenschaft als Helfer für angewandte Ethik - Prof. Norbert Pohlmann

U. Coester, N. Pohlmann (Institut für Internet-Sicherheit):
„Im Sinne der Gesellschaft – Wissenschaft als Helfer für angewandte Ethik in der KI-unterstützten IT“,
IT-Sicherheit – Mittelstandsmagazin für Informationssicherheit und Datenschutz,
DATAKONTEXT-Fachverlag,
1/2021

Im Kontext der Digitalisierung, und insbesondere vor dem Hintergrund der dadurch prädizierten Effizienzsteigerung, wird der Künstlichen Intelligenz (KI) eine hohe Bedeutung beigemessen. Ebenso in Bezug auf die IT-Sicherheit gehen Experten davon aus, dass KI entscheidend dazu beitragen wird, die strategische Abwehr von Cyber-Angriffen zu optimieren. Doch trotz aller Euphorie sollten hier neben den Chancen auch die daraus potenziell resultierenden Risiken in Betracht gezogen werden. Denn der Einsatz von KI ist mit Implikationen verbunden, die auf die gesamte Gesellschaft wirken, von daher ist es nicht nur ratsam, sondern sogar erforderlich Anwendungen – auch im Bereich IT-Sicherheit – unter ethischen Aspekten zu analysieren und bewerten.

Auch wenn die Vorteile beim Einsatz von KI unbestritten sind, so gibt es doch substanzielle Gründe für eine dedizierte Urteilsfindung bezüglich der anwendungsbezogenen Nutzung. Ein wesentlicher ist, dass dem Gros der Menschen im Regelfall die Kenntnisse zur Beurteilung von Technologien fehlt und sie somit erwarten, dass die Unternehmen – konkret die Mitgestalter der digitalen Evolution – ihrer Verantwortung für die Folgenabschätzung sowie den ethisch vertretbaren Einsatz von KI gerecht werden. Diese Verantwortlichkeit resultiert im Wesentlichen auch daraus, dass im speziellen der Einsatz von KI nicht nur einzelnen Personengruppen Nachteile bringen, sondern ganzen Gesellschaften massiv Schaden zufügen kann.

Denn während einer Person hierdurch eventuell ein Verlust bezüglich der digitalen Sicherheit, Privatsphäre, Reputation oder auch die Verletzung des Grundsatzes der Gleichbehandlung droht potenzieren sich die möglichen Folgen für die Gesellschaft um ein Vielfaches. Angefangen bei der Schwächung der Wirtschaftskraft eines Landes, denn bei Unternehmen steigt aufgrund der zunehmenden Komplexität sowie dem Einsatz von KI die Verwundbarkeit und somit das Risiko zur Zielscheibe von Angriffen zu werden. Des Weiteren sind, aufgrund dieser Faktoren, auch negative Effekte in Bezug auf die nationale Sicherheit oder die politische Stabilität als mögliche Konsequenzen denkbar.

Anwendung von KI zur Steigerung der IT-Sicherheit

Um auf dieses Gefahrenpotential künftig besser vorbereitet zu sein und diesem auch mit geeigneten Maßnahmen etwas Entgegen setzen zu können, ist der Einsatz von KI definitiv zu prüfen. Hier gibt es bereits diverse Anwendungsszenarien, die die Vielfalt in diesem Bereich demonstrieren. So zählt beispielsweise das Detektieren von Angriffen über ein Netzwerk oder Endgeräte zu den wichtigsten Punkten in Hinblick auf die Reduzierung von Risiken. Das automatisierte Erkennen von sicherheitsrelevanten Ereignissen – etwa zur Priorisierung – ist extrem hilfreich, um Cyber-Sicherheitsexperten von zeitaufwendigen Analysearbeiten zu entlasten.



Eine gute Lösung – das Ethik.KI.Tool

Damit Entwicklungsunternehmen* in der Lage sind, ihr eigenes Handeln bezüglich eines werteorientierten und vertrauenswürdigen Umgangs mit KI-Anwendungen zu reflektieren wurde im Institut für Internet-Sicherheit if(is) im Rahmen eines interdisziplinären Forschungsprojekt das informationstechnische Ethik.KI.Tool konzipiert und realisiert, um Unternehmen bei diesem Prozess zu unterstützen. Unter Einsatz dieses Tools kann Entwicklungsunternehmen, auf Basis ausreichend zur Verfügung gestellter profunder Informationen, ein Ergebnis für die relevanten ethischen Fragestellungen ausgearbeitet und präsentiert werden.

Folgende Phasen werden bei der Nutzung des Ethik.KI.Tool durchlaufen:

1. Phase:  
Theoretische und praktische Auseinandersetzung mit der Ethik

In dieser Phase werden die ethische Werte, die allgemein bei KI-basierten Anwendungen eine Rolle spielen, im spezifischen Kontext untersucht. Diese sind – verkürzt dargestellt – im Einzelnen:

Fairness & Gerechtigkeit
Im Hinblick auf die KI-basierte Anwendung bedeutet dies, dass alle Nutzer angemessen und transparent behandelt werden. 

Gleichheit
Im Kontext der KI besteht eine Gefahr der Diskriminierung beispielsweise bei individualisierten Preisen für Frauen und Männer vor allem dann, wenn für den Einzelnen nicht erklärbar oder nachvollziehbar ist, aus welchem Grund ein höherer Preis für ein Produkt/eine Leistung bezahlt werden muss.

Solidarität
Im Kontext der KI laufen beispielsweise Versicherer zunehmend Gefahr, gewisse Krankheiten bestimmten Verhaltensweisen zuzuschreiben und daraufhin Personen gesondert zu bewerten und einzustufen. Dies widerspricht dem Solidaritätsgedanken, der für eine Gesellschaft von hoher Relevanz ist.

Toleranz
Für die Gesellschaft ist Toleranz ein wichtiges Faktum und wird unter anderem diskutiert in Zusammenhang mit kulturellen Unterschieden sowie prinzipiell anderen Wertesysteme. Somit ist die Toleranz auch ein wichtiger Wert im Hinblick auf den Wunsch von Nutzern bezüglich der Kontrolle der eigenen digitalen Identität, der unterschiedlich stark ausgeprägt sein kann.

Freiheit
Insbesondere im Kontext der KI ist das ein relevanter Wert, da dies auch die Autonomie des Einzelnen im Gegensatz zur Kontrolle durch ein System beinhaltet.

Kontextuelle Integrität
Mit der kontextuellen Integrität wird berücksichtigt, dass der Einzelne die Freiheit hat, in verschiedenen Lebensbereichen unterschiedliche Daten preiszugeben. Denn wenn die Verwendung dieser Daten nicht mehr der ursprünglichen Absicht entspricht, wird die kontextuelle Integrität verletzt – zum Beispiel, wenn sehr vertrauliche Informationen aus dem Freundeskreis in individualisierte Preise einfließen.

2. Phase:
Arbeiten mit den Ethik.KI.Tool

In dieser Phase bearbeiten die verantwortlichen Mitarbeiter mit dem Ethik.KI.Tool nacheinander die folgenden Kategorien:

1.) Grundsatzfragen vor der Nutzung des Ethik.KI.Tool

Hier wird vorab überprüft, ob die vorliegende KI-basierte Anwendung personenbezogene Daten nutzt oder, ob mit dieser, eventuell Werte der Gesellschaft verletzt werden.

2.) Die Kategorie ethische Reflexion zum Einsatz von KI-basierten Anwendungen dient zur Selbsteinschätzung, gegen welche ethischen Werte potenziell verstoßen wird.

3.) Die Kategorie Operationalisierung genereller ethischer Prinzipien behandelt die Frage der Kontrolle und Verantwortlichkeiten bezüglich Datengewinnung und -nutzung.

4.) Die Kategorie Datengewinnung und -nutzung für die betrachtete KI-basierte Anwendung überprüft die hier relevanten Kriterien wie Aktualität und Vollständigkeit.

5.) Die Kategorie Durchsetzung der Informationellen Selbstbestimmung bei der KI-basierten Anwendung dient der eigenen Auditierung, ob diese optimal umgesetzt wird, zum Beispiel bezüglich der Bereitstellung von Zugriffsmöglichkeiten auf persönliche Informationen.

6.) Die Kategorie Rechtliche Aspekte der Daten für die betrachtete KI-basierte Anwendung fragt die Umsetzung der vorgeschriebenen Regeln ab, etwa in Bezug auf die Möglichkeiten zur Löschung.

7.) Die Kategorie IT und IT-Sicherheit für die betrachtete KI-basierte Anwendung handelt die wichtigen Fragen nach den IT-Sicherheitszielen, dem Level der IT-Sicherheitsmaßnahmen sowie die IT-Sicherheit der verwendeten KI-Technologie und -Anwendungen ab.

3. Phase:
Ergebnisse des Ethik.KI.Tool

Die Ergebnisse des Ethik.KI.Tool werden für jeden Schritt und als Gesamtheit aufgeführt. Dabei findet eine Klassifizierung von „Grün“ bis „Rot“ mit den entsprechenden Zwischenstufen statt.

GRÜN: Die KI-basierte Anwendung ist aus ethischer Sicht (völlig) unbedenklich. Die wesentlichen Kriterien und Werte der Gesellschaft werden angemessen berücksichtigt.

ROT: Die KI-basierte Anwendung ist aus ethischer Sicht abzulehnen.

4. Phase:
Umsetzung von Aktionen, die die Ergebnisse zu optimieren

Insbesondere im Hinblick auf die Zwischenstufen ist es für Unternehmen sinnvoll, gemeinsam mit Beratern die Ergebnisse im Rahmen eines Workshops aufzuarbeiten und die weitere Vorgehensweise für die Erreichung einer wertekonformen KI-basierten Anwendung zu entwerfen.



Weitere Informationen zum Thema “Wissenschaft als Helfer für angewandte Ethik”:


Artikel:
“Vertrauen – ein elementarer Aspekt der digitalen Zukunft”

„Künstliche Intelligenz und Cybersicherheit – Unausgegoren aber notwendig“

„Sei gewarnt! Vorhersage von Angriffen im Online-Banking“„Ethik und künstliche Intelligenz – Wer macht die Spielregeln für die KI?“

„Artikel: Künstliche Intelligenz und Cybersicherheit“

Vorträge:
„Sicherheit und Vertrauenswürdigkeit von KI‐Systemen“

“Vortrag: Künstliche Intelligenz und Cyber-Sicherheit”

“Künstliche Intelligenz und die Internetwirtschaft”

“Artificial Intelligence (AI) for Cyber Security”

“Künstliche Intelligenz und Cyber-Sicherheit – Workshop”

Enquete‐Kommission Künstliche Intelligenz:
Thesen und Handlungsempfehlungen zum Thema „Sicherheit und Vertrauenswürdigkeit von KI‐Systemen“

Diskussionsgrundlage für den Digitalgipfel 2018:
“Diskussion: Künstliche Intelligenz und Cybersicherheit”

eco-Studie:
Potenzial von künstlicher Intelligenz (KI) für die deutsche Wirtschaft im Jahr 2025

Glossareintrag: Künstliche Intelligenz

Informationen über das Lehrbuch: „Cyber-Sicherheit“

kostenlos downloaden

Wissenschaft als Helfer für angewandte Ethik - Prof. Norbert Pohlmann
Im Sinne der Gesellschaft – Wissenschaft als Helfer für angewandte Ethik in der KI-unterstützten IT Prof. Dr. Norbert Pohlmann - Cyber-Sicherheitsexperten