Erklärbarkeit durch Surrogate Models – Quadratur des Deep Neural Network
Erklärbarkeit von Modellen wird nicht nur durch die DSGVO gefordert, sondern hilft auch beim Debuggen eines Modells und stärkt das Vertrauen in ein solches Modell.
Deep Neural Networks (DNNs) sind zwar erstklassig wenn es um gute Generalisierung geht, aber in ihren Entscheidungen durch ihre interne Komplexität nur noch schwer nachvollziehbar.
Decision Trees auf der anderen Seite haben in diesem Bereich einen Vorteil, weil man zumindest flache Bäume als ganzes ansehen und jede einzelne Entscheidung nachvollziehen kann. Allerdings neigen sie zu Overfitting, und flache Bäume haben oft nicht die notwendige Ausdruckskraft.
In diesem Vortrag zeige ich anhand eines Notebooks mit TensorFlow 2 und Scikit-learn einen Ansatz, wie man einen Decision Tree als Schüler eines Deep Neural Network nutzen kann und so eine Stellschraube zwischen Ausdruckskraft des DNNs und der Erklärbarkeit eines flachen Decision Tree bekommt.
Vorkenntnisse
* Was ist ein Neuronales Netzwerk und was ein Decision Tree?
* Grundbegriffe des Supervised Machine Learning: Overfitting, Underfitting, Scores, Decision Boundaries, Regularisierung
Lernziele
* Inwieweit kann man den Widerspruch zwischen Ausdruckskraft und Erklärbarkeit auflösen?
* Wie kann man ein Neuronales Netzwerk als Lehrer eines Decision Tree verwenden und welche Vorteile hat das?