Explainable Machine Learning enthmythifiziert
Als Trade-off zur oft überlegenen Vorhersagegüte moderner Machine-Learning-Algorithmen stellen die resultierenden Modelle oft Black Boxes dar, das heißt, es ist in der Regel nicht offensichtlich, wie sich Prognosen in unterschiedlichen Situationen verhalten. Verschiedene populäre Negativbeispiele in der jüngeren Vergangenheit legen jedoch Nahe, dass ein Verständnis der Wirkungsweise der Modelle von hoher Bedeutung ist, um Fehlverhalten der Modelle rechtzeitig zu erkennen und dem vorzubeugen. In einigen Bereichen (wie z.B. dem Kreditrisikoscoring von Banken) ist die Interpretierbarkeit von Modellen sogar regulatorisch vorgeschrieben, z.B. durch die DSGVO oder die Eigenkapitalrichtlinie „Basel II“.
Aus diesen Gründen hat Feld des eXplainable Machine Learning (xML) in den letzten Jahren einen starken Hype erfahren.
Der Vortrag gibt einen allgemeinen Überblick über grundlegende xML-Verfahren wie Variable Importance, Partial Dependence, Accumulated Local Effects, Shapley Additive Explanations oder LIME. Zusätzlich werden Implementierungen der Verfahren in der Programmiersprache R vorgestellt. Insbesondere erfolgt aber auch eine kritische Einschätzung der bestehenden Verfahren, z.B. anhand von Explainability.
Vorkenntnisse
Grundkenntnisse im Machine Learning
Lernziele
* Kenntnis der grundlegenden xML-Verfahren
* Fähigkeit zur kritischen Bewertung