Explainable AI - Methods and their Utility
Betreuer/in Nicolas Pfeuffer
ProfessorProf. Dr. Oliver Hinz
Starttermin ab sofort
EmpirischJa
KurzbeschreibungMit zunehmenden effizienter werdenden Machine Learning (ML) Modellen schwindet zunehmend die einfache Erklärbarkeit und Transparenz solcher effizienten Lösungen. Dies wird speziell dann problematisch, wenn selbst die Entwickler dieser Modelle nicht mehr erklären können, wie ihre Modelle funktionieren und wie sie zu Entscheidungen gelangen. Explainable AI (XAI) hat das Ziel, diesen Missstand zu korrigieren und KI und ML Modelle wieder erklärbarer zu machen, sodass ML-Engineers, wie auch Entscheider die verwendeten Modelle besser erklären können und auch sinnvoll nutzen können. Dies wird beispielsweise im Bereich der Bildanalyse mit Convolutional Neural Networks (CNNs) über Class-Activation Maps (CAM/GRAD-CAM) oder Saliency Maps bewirkt. Ein allgemeingültiger Konsens zu XAI ist jedoch bisher nicht gefunden, sodass im Laufe der Zeit einige Standardverfahren entstanden sind, welche mehr oder weniger hilfreich für die Erklärbarkeit sein können. Arbeiten im Bereich der XAI können sich mit folgenden Themen beschäftigen: - Beobachtung von Nutzerinteraktion, Akzeptanz und Nützlichkeit von XAI Lösungen in verschiedenen Bereichen und zu verschiedenen Verfahren - Ökonomische Auswirkungen von XAI - Betrachtung und Vergleich technischer (Standard)lösungen - Implementierung eigener XAI Verfahren mit Nützlichkeitsanalyse Bei Interesse melden Sie sich bitte bei Herrn Pfeuffer.
Einstiegsliteratur

Top