Die Maschine denkt. Doch tut sie das zuverlässig? Können wir ihr wirklich vertrauen? Und lässt sich ihre Tätigkeit zertifizieren? Das untersuchten ForscherInnen der Universität Graz in einer Kooperation mit dem Pharma-Unternehmen Fresenius Kabi Austria. „Künstliche Intelligenz soll automatisiert überprüfen, ob relevante Qualitätskriterien erfüllt sind oder Arzneimittel aus dem Prozess ausgeschieden werden müssen“, schildert Stefan Thalmann, Leiter des Business Analytics and Data Science-Center an der Uni Graz, die Ausgangslage.
Der Einsatz von Software in solchen sensiblen Bereichen unterliegt Richtlinien und muss bescheinigt werden. KI nimmt jedoch eine Sonderstellung ein, da – abseits von einem Regulierungsentwurf der EU – aktuell keine Ansätze für die Zertifizierung vorhanden sind. „Denn die Technologie lernt selbstständig Entscheidungsregeln aus vergangenen Beurteilungen, die Menschen getroffen haben und die in den sogenannten Trainingsdaten abgebildet sind“, fasst der Wissenschafter zusammen.
In der Zusammenarbeit mit Fresenius Kabi ging es darum, den Prüfvorgang von sensiblen Medikamenten mit Hilfe einer KI unter die Lupe zu nehmen. Den Haken beschreibt Thalmann: „KI wird zur Blackbox, denn wir kennen diese Regeln nicht und wissen somit nicht, worauf sich die automatisierte Entscheidung begründet.“ Der Wirtschaftsinformatiker erklärt: „Wir setzten spezielle Erklär-Komponenten ein und mit künstlichen Sonderfällen wurde die KI gewissermaßen herausgefordert.“ In der Folge konnten so die Modelle verstanden und Ergebnisse besser nachvollzogen werden. Erstmals ist es damit WissenschafterInnen der Uni Graz gelungen, den Einsatz künstlicher Intelligenz im Pharmaumfeld zu zertifizieren. Stefan Thalmann: „Das Projekt zeigt, wie der KI-Regulierungsvorschlag der EU in der Praxis umgesetzt werden kann.“
Die Ergebnisse wurden in einem Fachjournal veröffentlicht.
Im Rahmen des Profilbereichs Smart Regulation arbeitet Stefan Thalmann interdisziplinär mit JuristInnen, PsychologInnen und EthikerInnen an diesem Thema weiter.