Vertrauenswürdige KI: Steuerbarkeit und Interpretierbarkeit in kritischen Anwendungen
Project Description
Deep Learning (DL) hat die prädiktive Modellierung in verschiedenen Bereichen revolutioniert und ermöglicht eine beispiellose Genauigkeit und Entscheidungsfähigkeit. Viele DL-Modelle funktionieren jedoch wie "Black Boxes", die zwar genaue Vorhersagen liefern, aber die zugrunde liegenden Überlegungen nicht erklären. Diese mangelnde Transparenz stellt eine große Herausforderung für Anwendungen mit hohem Risiko dar, bei denen Erklärbarkeit und Kontrollierbarkeit ebenso wichtig sind wie die Vorhersageleistung. Das rasante Aufkommen generativer und agentenbasierter KI, d. h. von Systemen, die autonom Inhalte generieren oder komplexe Aufgaben ausführen, verstärkt diese Herausforderungen noch, da die Nutzer die Entscheidungen des Modells verstehen, antizipieren und gegebenenfalls beeinflussen müssen, um Sicherheit, Zuverlässigkeit und Vertrauen zu gewährleisten.
Dieses Projekt befasst sich mit diesen Herausforderungen, indem es Methoden zur Verbesserung der Erklärbarkeit und Kontrollierbarkeit von Deep-Learning-Modellen untersucht, wobei ein besonderer Schwerpunkt auf generativer und Deep-Learning-basierter agentenbasierter KI liegt. Konzeptbasierte Modelle (CBMs) werden als vielversprechender Ansatz untersucht, der es Benutzern ermöglicht, Vorhersagen durch intermediäre, für Menschen verständliche Variablen zu erklären und zu kontrollieren, während die Vorhersageleistung erhalten bleibt. Um ihre Anwendbarkeit zu beurteilen, werden die untersuchten Methoden in Bereichen mit hohem Risiko, wie dem Gesundheitswesen, dem Finanzwesen und der industriellen Automatisierung, weiter evaluiert und ihre Relevanz für reale Anwendungen untersucht.
Dieses Projekt befasst sich mit diesen Herausforderungen, indem es Methoden zur Verbesserung der Erklärbarkeit und Kontrollierbarkeit von Deep-Learning-Modellen untersucht, wobei ein besonderer Schwerpunkt auf generativer und Deep-Learning-basierter agentenbasierter KI liegt. Konzeptbasierte Modelle (CBMs) werden als vielversprechender Ansatz untersucht, der es Benutzern ermöglicht, Vorhersagen durch intermediäre, für Menschen verständliche Variablen zu erklären und zu kontrollieren, während die Vorhersageleistung erhalten bleibt. Um ihre Anwendbarkeit zu beurteilen, werden die untersuchten Methoden in Bereichen mit hohem Risiko, wie dem Gesundheitswesen, dem Finanzwesen und der industriellen Automatisierung, weiter evaluiert und ihre Relevanz für reale Anwendungen untersucht.
Relevance to Liechtenstein
Dieses Projekt konzentriert sich auf die Untersuchung von Methoden zur Verbesserung der Erklärbarkeit und Kontrollierbarkeit von Deep-Learning-Modellen, mit besonderem Schwerpunkt auf generativer und Deep-Learning-basierter agentenbasierter KI.
Diese Aspekte gewinnen für Liechtenstein zunehmend an Bedeutung, da das Land seine digitale Transformation vorantreibt und wichtige Wirtschaftssektoren wie das Gesundheitswesen und das Finanzwesen einen steigenden Bedarf an zuverlässigen und transparenten KI-Systemen haben. Darüber hinaus wird das Projekt durch die Einbindung lokaler Interessengruppen in Workshops, Veranstaltungen zum Wissensaustausch und angewandte Kooperationen sicherstellen, dass seine Ergebnisse einen sinnvollen Beitrag zum regionalen Innovationsökosystem leisten.
Diese Aspekte gewinnen für Liechtenstein zunehmend an Bedeutung, da das Land seine digitale Transformation vorantreibt und wichtige Wirtschaftssektoren wie das Gesundheitswesen und das Finanzwesen einen steigenden Bedarf an zuverlässigen und transparenten KI-Systemen haben. Darüber hinaus wird das Projekt durch die Einbindung lokaler Interessengruppen in Workshops, Veranstaltungen zum Wissensaustausch und angewandte Kooperationen sicherstellen, dass seine Ergebnisse einen sinnvollen Beitrag zum regionalen Innovationsökosystem leisten.
Scientific, Economic and Societal Impact
Dieses Projekt reagiert auf den wachsenden Bedarf an KI-Systemen, die auf transparente und verantwortungsvolle Weise eingesetzt werden können, insbesondere da generative und agentenbasierte Modelle zunehmend in berufliche und entscheidungsunterstützende Prozesse integriert werden. Die Fähigkeit, KI-gesteuerte Schlussfolgerungen zu verstehen und gegebenenfalls zu beeinflussen, ist nicht nur für die Aufrechterhaltung des Vertrauens der Nutzer unerlässlich, sondern auch für den sicheren und zuverlässigen Betrieb von Systemen, die sich auf sozial und wirtschaftlich sensible Bereiche auswirken.
Die praktische Relevanz wird besonders in Bereichen mit hohem Risiko deutlich, in denen KI bereits eingesetzt wird. Im Gesundheitswesen beispielsweise sind transparente und kontrollierbare Modelle unerlässlich, um klinische Entscheidungen zu unterstützen und sicherzustellen, dass automatisierte Vorschläge von medizinischen Fachkräften interpretiert und bewertet werden können. Im Finanzwesen sehen sich Unternehmen mit steigenden Erwartungen hinsichtlich Fairness, Erklärbarkeit und Einhaltung gesetzlicher Vorschriften konfrontiert, sodass undurchsichtige Modelle in Bereichen wie Risikobewertung oder Betrugsaufdeckung nur schwer zu rechtfertigen sind.
Die praktische Relevanz wird besonders in Bereichen mit hohem Risiko deutlich, in denen KI bereits eingesetzt wird. Im Gesundheitswesen beispielsweise sind transparente und kontrollierbare Modelle unerlässlich, um klinische Entscheidungen zu unterstützen und sicherzustellen, dass automatisierte Vorschläge von medizinischen Fachkräften interpretiert und bewertet werden können. Im Finanzwesen sehen sich Unternehmen mit steigenden Erwartungen hinsichtlich Fairness, Erklärbarkeit und Einhaltung gesetzlicher Vorschriften konfrontiert, sodass undurchsichtige Modelle in Bereichen wie Risikobewertung oder Betrugsaufdeckung nur schwer zu rechtfertigen sind.