Künstliche Intelligenz wertekonform? VDE SPEC als Grundlage künftiger Entwicklungen

VDE SPEC basiert auf bestehenden Konzepten, den Vorgaben der EU und intensiver Kooperation mit Unternehmen und Forschung. Zielsetzung ist ein AI Trust Label, das industrieweit verwendet werden kann. Um Systeme auf Basis Künstlicher Intelligenz erfolgreich und flächendeckend in den Markt einzuführen, gibt es eine bislang ungelöste Schlüsselfrage: Wie kann Vertrauen in die Entscheidungen von Algorithmen entstehen? Nur über einen klar definierten Standard können Hersteller und Systembetreiber nachweisen, bis zu welchem Grad bestimmte ethische Anforderungen eingehalten werden. Sebastian Hallensleben, KI-Experte im VDE und Projektgruppenleitung für das Projekt VDE SPEC KI-Ethik, erklärt: „Das Thema brennt allen unter den Nägeln. Wir haben gemeinsam mit unseren Projektpartnern eine Systematik entworfen, durch die man eine KI mit realistischem Aufwand prüfen und die Ergebnisse klar in Richtung Markt und Regulierer kommunizieren kann.“

Industrie- und wissenschaftsübergreifend: Vorlage für ein international gültiges AI Trust Label

In die Entwicklung der VDE SPEC waren Bosch als Mit-Initiator sowie Siemens, TÜV Süd, SAP und BASF involviert. Seitens der Wissenschaft beteiligten sich Vertreter*innen vom iRights.Lab, dem Karlsruher Institut für Technologie, dem Ferdinand-Steinbeis-Institut sowie der Universitäten Tübingen und Darmstadt. Bereits aus dieser Breite an Teilnehmern wird deutlich, dass das Konsortium auf ein allgemeinverbindliches, international anerkanntes AI Trust Label hinarbeitet. „Selbstverständlich bewegen wir uns dabei nicht im luftleeren Raum“, so Dr. Christoph Peylo, der bei Bosch das Thema „Digital Trust“ verantwortet. „Wir haben Vorarbeiten wie die der AI Ethics Impact Group berücksichtigt, und natürlich läuft auch ein Abgleich mit den aktuellen Vorgaben der EU.“ Geplant ist im nächsten Schritt, bis zum Sommer 2022 das AI Trust Label vorzustellen, das Unternehmen für KI-Produkte nutzen können. Am Ende soll das Label je nach Anwendungsfall sowohl eine Eigenerklärung als auch eine Zertifizierung durch unabhängige Instanzen erlauben, was bei besonders risikoreichen Anwendungen erforderlich ist.

Bezüglich der wissenschaftlichen Systematik stützten sich die Projektpartner auf das etablierte VCIO-Modell. Es basiert auf vier Parametern: Auf der obersten Ebene werden Werte (Values) definiert, deren Einhaltung über festgelegte Kriterien (Criteria) überprüft wird. Dies ist möglich über die Beschreibung von Indikatoren (Indicators) und Beobachtungsmerkmalen (Observables). „Das klingt sehr kompliziert, ist aber ganz praktisch vorstellbar“, sagt Dr. Hallensleben. „Für den Wert Transparenz gibt es verschiedene Kriterien, zum Beispiel Herkunft und Charakteristika der Trainingsdaten, die eine KI nutzt, oder die Durchschaubarkeit und Verständlichkeit des Algorithmus. Solche Eigenschaften werden über die in der VDE SPEC vorgestellte Systematik mess- und quantifizierbar in Einklang gebracht.“ Die VDE SPEC mit dem Titel „VCIO based description of systems for AI trustworthiness characterization“ finden Sie HIER.


Beitrag veröffentlicht

in

von