Von dummen Chatbots zum allwissenden Digitalen Assistenten? In der Präsentation von Prof. Dr. Norbert Pohlmann wurde die Bedeutung von Vertrauenswürdigkeit im Zusammenhang mit Künstlicher Intelligenz (KI) und Informationssicherheit herausgestellt. Die Nutzung von Daten vergrößert die Angriffsfläche von KI, weshalb die Datenqualität eine zentrale Rolle spielt. Das Prinzip “Garbage in, Garbage out” verdeutlicht die Wichtigkeit von qualitativ hochwertigen Eingabedaten für vertrauenswürdige Ergebnisse. Es wurden Cyber-Sicherheitsmaßnahmen zur Erhöhung der Datenqualität, wie die Etablierung von Datenpools und die Förderung des Datenaustauschs, sowie Standards für die Datenqualität vorgestellt.
Zudem wurde betont, dass auch die IT-Sicherheit der KI eine entscheidende Rolle für die Vertrauenswürdigkeit spielt. Es wurde empfohlen, Risiken, wie Poisoning Attack oder Evasion Attack, durch aktive Cyber-Sicherheitsmaßnahmen zu reduzieren und die Zusammenarbeit von KI- und Cyber-Sicherheitsexperten zu fördern. Schutzziele wie Integrität, Vertraulichkeit, Datenschutz und Verfügbarkeit wurden als wichtige Aspekte hervorgehoben, um die Cyber-Sicherheit von KI-Systemen zu gewährleisten.
Des Weiteren wurde darauf hingewiesen, dass auch die Nutzung von digitalen Assistenten und die Vollständigkeit der Daten zusätzliche Risikofaktoren darstellen. Es wurde empfohlen, den Menschen als kontrollierenden Faktor einzubinden und den Einsatz von dezentralen Speicherlösungen zu bevorzugen. Zusammenfassend wurde festgestellt, dass die Qualität der Daten direkten Einfluss auf die Sicherheit und Vertrauenswürdigkeit von KI hat. Ein klares Bekenntnis zur Vertrauenswürdigkeit seitens der Unternehmen und die Einbindung von Menschen in wichtige Anwendungen sind entscheidend, um das Risiko zu minimieren.
Insgesamt verdeutlicht die Präsentation die Komplexität und die Herausforderungen im Bereich der Sicherheit von künstlicher Intelligenz. Es wurde deutlich gemacht, dass sowohl die Datenqualität als auch die IT-Sicherheit entscheidend sind, um die Vertrauenswürdigkeit von KI zu gewährleisten und Angriffsflächen zu reduzieren. Die Einbindung von Experten, die Festlegung von Schutzziele und die Berücksichtigung von Risikofaktoren sind essentiell, um die Sicherheit und Zuverlässigkeit von KI-Systemen zu gewährleisten.