Künstliche Intelligenz

KI Prüfkatalog verfügbar

KI ist ein Werkzeug für den Menschen. Deshalb ist Vertrauen im Umgang mit KI-Systemen wichtig. Forscher vom Fraunhofer IAIS haben jetzt einen Leitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz veröffentlicht.

Von
Maschinenbau Fraunhofer IAIS KI

Die Smart Factory kann nur dann Realität werden, wenn die Menschen auf die KI im System vertrauen können. 

Um hochwertige KI-Produkte und -Dienstleistungen zu entwickeln, ist es für Unternehmen und Entwicklerinnen demnach unerlässlich, die Vertrauenswürdigkeit eines KI-Systems sicherzustellen und nachzuweisen: Entweder von Entwicklungsstart an (by design) oder durch objektive Prüfungen im Laufe des Anwendungsbetriebs, heißt es in einer Mitteilung des Fraunhofer IAIS. 

Kritik an der Kommission

Um Risiken einzugrenzen und ein grundlegendes Vertrauen der Gesellschaft in die Künstliche Intelligenz zu sichern, haben die EU-Kommission, die High Level Expert Group on AI (HLEG) und die Datenethikkommission der Bundesregierung allgemeine Leitlinien für die Entwicklung von KI-Anwendungen geschaffen. Diese sind jedoch oftmals zu abstrakt und enthalten kaum konkrete Anforderungen an Unternehmen und Entwicklerinnen. Zudem zeigt die kürzlich veröffentlichte Normungsroadmap KI überdeutlich einen großen Bedarf an konkreten Qualitätsvorschriften und Standards für KI-Anwendungen auf.

Der Prüfkatalog strukturiert sich in drei Teilbereiche: 

White Paper zum Thema

  1. Einen Leitfaden zur strukturierten Identifikation KI-spezifischer Risiken in Hinblick auf die sechs Dimensionen der Vertrauenswürdigkeit: Fairness, Autonomie und Kontrolle, Transparenz, Verlässlichkeit, Sicherheit und Datenschutz.
  2. Eine Anleitung, mit deren Hilfe spezifische Prüfkriterien für eine KI-Anwendung formuliert werden können. Zu diesem Zweck listet der KI-Prüfkatalog etablierte KPIs auf, um entsprechende Zielvorgaben – wo möglich – zu quantifizieren.
  3. Eine Anleitung zur strukturierten Dokumentation von technischen und organisatorischen Maßnahmen entlang des Lebenszyklus einer KI-Anwendung, die dem aktuellen Stand der Technik entsprechen und durch deren Umsetzung mögliche KI-Risiken abgeschwächt werden können.

Interessierte können den Prüfkatalog hier herunterladen.