Künstliche Intelligenz
Pixabay
Pixabay
Wissenschaft

Künstlicher Intelligenz auf dem Uni-Prüfstand

Wirtschaftsinformatiker der Uni Graz stellen der Arbeit von Künstlicher Intelligenz (KI) in der Pharmaproduktion ein gutes Zeugnis aus. An einem Beispiel der Pharmabranche zeigten sie, dass automatisierte Entscheidung die Anforderung erfüllen kann.

KI hält zunehmend Einzug in unseren Alltag, birgt aber – wie viele an sich neutrale Technologien – auch Risiken. Die Anwendung von KI in Bereichen, die direkte Auswirkungen auf das menschliche Leben haben, hinkt jedoch hinterher – etwa in der Arzneimittelproduktion, in der der Prüfvorgang von Medikamenten entscheidend für Leben oder Tod der Patienten werden kann.

Was passiert, wenn künstliche Intelligenz diese folgenschwere Aufgabe übernimmt? Hier sind die Interpretierbarkeit und Erklärbarkeit der Entscheidungen der KI wichtige Themen, um die Transparenz und das Vertrauen in diese Anwendungen zu stärken.

Qualitätskontrolle

In einer Kooperation mit dem Pharma-Unternehmen Fresenius Kabi Austria hat Stefan Thalmann vom Business Analytics and Data-Science-Center (BANDAS-Center) an der Uni Graz untersucht, ob die Pharmaproduktion „denkenden“ Maschinen vertrauen und sich deren Tätigkeit zertifizieren lassen kann. In der Zusammenarbeit mit dem Produktionsunternehmen wurde die Qualitätskontrolle von sterilen Arzneimitteln mit Hilfe einer KI unter die Lupe genommen.

„Künstliche Intelligenz soll automatisiert überprüfen, ob relevante Qualitätskriterien erfüllt sind oder Arzneimittel aus dem Prozess ausgeschieden werden müssen“, schildert Thalmann die Ausgangslage.

KI lernt aus Entscheidungsregeln

Der Einsatz von Software solcher sensiblen Bereiche unterliegt Richtlinien und muss bescheinigt werden. KI nimmt jedoch eine Sonderstellung ein, da – abseits von einem Regulierungsentwurf der EU – aktuell noch geringe Ansätze für die Zertifizierung vorhanden sind, „denn die Technologie lernt selbstständig Entscheidungsregeln aus vergangenen Beurteilungen, die Menschen getroffen haben und die in den sogenannten Trainingsdaten abgebildet sind“, wie der Wissenschaftler zusammenfasste.

Transparenz fehlt

Thalmann wies zugleich auf den kritischen Punkt hin: „KI wird zur Blackbox, denn wir kennen diese Regeln nicht und wissen somit nicht, worauf sich die automatisierte Entscheidung begründet.“ KI kann demnach schon viel, aber es mangelt ihr noch an Transparenz, da nicht sichtbar ist, was sie dazu bringt, eine bestimmte Entscheidung zu treffen. Thalmann und sein Team suchen nach Wegen, die Vorgänge in dieser Blackbox erklärbar zu machen: Sie haben einen Validierungsansatz für KI in sensiblen Anwendungsfällen entwickelt, der das Verständnis des Systemverhaltens erleichtert.

Spezielle „Erklär-Komponenten“

„Wir setzten spezielle Erklär-Komponenten ein und mit künstlichen Sonderfällen wurde die KI gewissermaßen herausgefordert“, schilderte der Grazer Wissenschaftler sein Vorgehen im jüngsten Projekt im Pharmabereich. Das habe im Rahmen des Projektes ermöglicht, die Modelle zu verstehen und Ergebnisse besser nachzuvollziehen. „Unser Ansatz hat sich als geeignet erwiesen, die erforderlichen Nachweise für eine Softwarevalidierung zu erheben, erfordert jedoch zusätzlichen Aufwand im Vergleich zu einer traditionellen Softwarevalidierung“, fasste das Grazer Team zusammen. Im Rahmen des Profilbereichs Smart Regulation arbeitet Thalmann interdisziplinär mit Juristinnen und Juristen, Psychologinnen und Psychologen sowie Ethikerinnen und Ethiker an diesem Thema weiter. Die Ergebnisse wurden in einem Fachjournal veröffentlicht.