slider

Bedingt neutrale Berechnungsverfahren – Algorithmen, die diskriminieren und Selbstbestimm - Prof. Dr. Norbert Pohlmann

Bedingt neutrale Berechnungsverfahren – Algorithmen, die diskriminieren und Selbstbestimmung beschränken

377-Bedingt-neutrale-Berechnungsverfahren-Algorithmen-die-diskriminieren-und-Selbstbestimmung-beschränken-Prof.-Norbert-Pohlmann

U. Coester, Norbert Pohlmann  (Institut für Internet-Sicherheit):,
„Bedingt neutrale Berechnungsverfahren – Algorithmen, die diskriminieren und Selbstbestimmung beschränken“,
BI-SPEKTRUM Fachzeitschrift für Business Intelligence und Data Warehousing,
2/2018

Durch die ausführliche Berichterstattung über die Wahlen in den USA sind Algorithmen, oder besser gesagt die darauf basierenden potenziellen Möglichkeiten zur Beeinflussung definierter Wählergruppen, verstärkt ins Bewusstsein sehr vieler Menschen gerückt. Im Grunde wurde dadurch eine Diskussi-on in der breiten Öffentlichkeit angestoßen, die längst überfällig war und immer noch andauert. Denn tatsächlich nehmen Algorithmen des maschinellen Lernens – und hier insbesondere automatisierte Entscheidungssysteme – eine zunehmend wichtige Rolle im Alltag ein und sind dazu geeignet, sowohl das Leben des Einzelnen als auch die Gesellschaft insgesamt immens zu verändern.

Algorithmen beinhalten ein enormes Potenzial für viele Wirtschaftsbereiche, da sich darüber dezidierte Informationen über jeden Kunden generieren lassen. Dies offeriert positive Aspekte, birgt jedoch gleichzeitig auch Gefahren, wie etwa den Verlust von selbstbestimmtem Handeln oder (un-)beabsichtigte Manipulation beispielsweise der Einstellung, erzeugt durch Diskriminierung. Beide Positionen gilt es vernunftgemäß zu bewerten und gegeneinander abzuwägen, um die richtigen Weichen für die Zukunft zu stellen. In diesen Prozess müssen folglich gleichermaßen jeder einzelne Nutzer, die anbietenden Unternehmen sowie unsere Gesellschaft gemeinschaftlich involviert sein.

Seit dem 15. Dezember 1983 ist das Recht auf informationelle Selbstbestimmung – als eine Ausprägung des allgemeinen Persönlichkeitsrechts – im sogenannten Volkszählungsurteil vom Bundesverfassungsgericht als Grundrecht anerkannt und dient unter anderem als Grundlage für das Bundesdatenschutzgesetz. In erster Linie soll mit der neuen europäischen Datenschutzgrundverordnung (EU-DSGVO) die Privatsphäre des Einzelnen dadurch geschützt werden, dass jeder selbstbestimmt entscheiden kann, wem er in welchem Umfang seine Daten zur Verfügung stellt.
Die Ausübung der informationellen Selbstbestimmung wird somit durch den Gesetzgeber garantiert. Daraus lässt sich generaliter ableiten, dass Unternehmen nicht uneingeschränkt frei darin sind, wie sie Kundendaten nutzen können. Der Umgang damit ist in den entsprechenden datenschutzrechtlichen Grundprinzipien geregelt: Zum Beispiel durch den Grundsatz der Transparenz, der sicherstellen soll, dass Nutzer ausreichend in Kenntnis gesetzt werden, und die Möglichkeit zur
Nachprüfung sowie Kontrolle und Richtigstellung gewährleistet. So werden den Unternehmen auf der einen Seite durch Business Intelligence, aufgrund der kontinuierlich verbesserten sowie robusteren Algorithmen und Aufführungsbedingungen, Möglichkeiten zur systematischen Analyse geboten – aber andererseits diese gleichzeitig durch die Gesetzgebung wieder reglementiert.
Doch lässt sich heute das Recht des Menschen auf Privatsphäre sowie freie Entfaltung seiner Persönlichkeit überhaupt noch durchsetzen und kann
dies mit den Interessen der Unternehmen in Einklang gebracht werden? Diese Frage lässt sich nicht so einfach beantworten, denn in der digitalen
Gesellschaft wird dem Nutzer bei Verwendung der modernen Internetdienste per se die Wahrung von Autonomie und Selbstbestimmung zunehmend erschwert. Zum Beispiel im Internet durch die immer größer werdende Anzahl von Sensoren, die durchgängig private Informationen – etwa im Bereich Fitness – erfassen. Oder dadurch, dass Unternehmen bei jeder Suchanfrage so viele persönliche Daten wie möglich sammeln, um immer dezidierter auf den Bedarf der Nutzer reagieren zu können.



Weitere Informationen zum Begriff “Bedingt neutrale Berechnungsverfahren – Algorithmen”:

Artikel:
“Vertrauen – ein elementarer Aspekt der digitalen Zukunft”


„Künstliche Intelligenz und Cybersicherheit – Unausgegoren aber notwendig“

„Sei gewarnt! Vorhersage von Angriffen im Online-Banking“

„Ethik und künstliche Intelligenz – Wer macht die Spielregeln für die KI?“

„Künstliche Intelligenz und Cybersicherheit“

Vorträge:
„Sicherheit und Vertrauenswürdigkeit von KI‐Systemen“

“Künstliche Intelligenz und Cyber-Sicherheit”

“Künstliche Intelligenz und die Internetwirtschaft”

“Artificial Intelligence (AI) for Cyber Security”

“Künstliche Intelligenz und Cyber-Sicherheit – Workshop”

Enquete‐Kommission Künstliche Intelligenz:
Thesen und Handlungsempfehlungen zum Thema „Sicherheit und Vertrauenswürdigkeit von KI‐Systemen“

Diskussionsgrundlage für den Digitalgipfel 2018: “Künstliche Intelligenz und Cybersicherheit”

eco-Studie: Potenzial von künstlicher Intelligenz (KI) für die deutsche Wirtschaft im Jahr 2025

Glossareintrag: Künstliche Intelligenz / Maschinelles Lernen

Informationen über das Lehrbuch: „Cyber-Sicherheit“

kostenlos downloaden
377-Bedingt-neutrale-Berechnungsverfahren-Algorithmen-die-diskriminieren-und-Selbstbestimmung-beschränken-Prof.-Norbert-Pohlmann
Bedingt neutrale Berechnungsverfahren – Algorithmen, die diskriminieren und Selbstbestimmung beschränken Prof. Dr. Norbert Pohlmann - Cyber-Sicherheitsexperten