Mit Machine-Learning getroffene Entscheidungen sind inhärent schwierig – wenn nicht gar unmöglich – nachzuvollziehen. Die Komplexität einiger der besten Modelle, wie Neuronale Netzwerke, ist genau das, was sie so erfolgreich macht. Aber es macht sie gleichzeitig zu einer Black Box. Das kann problematisch sein, denn Geschäftsführer oder Vorstände werden weniger geneigt sein, einer Entscheidung zu vertrauen und nach ihr zu handeln, wenn sie sie nicht verstehen.
Local Interpretable Model-Agnostic Explanations (LIME) ist ein Versuch, diese komplexen Modelle zumindest teilweise nachvollziehbar zu machen. In diesem Vortrag erkläre ich das Prinzip und zeige Anwendungsbeispiele von LIME.
Vorkenntnisse
Grundkenntnisse Machine Learning & Statistik
Lernziele
* Einblick in Möglichkeit, die komplexe Modelle erklärbar machen
* Vertrauen in Entscheidungen durch Machine Learning schaffen
//
Shirin Glander
@ShirinGlander
ist promovierte Biologin und Data Scientist und verfügt über fundierte Kenntnisse in Statistik und Machine Learning. Neben fachlicher Kompetenz im Bereich Data Science und Machine Learning liegt ihr die Vermittlung von Wissen an ein breiteres Publikum sehr am Herzen. So schreibt sie einen Data Science Blog, hält Webinare (z.B. “Building meaningful machine learning models for disease prediction“) und trägt Artikel zu codecentrics Blog bei. Darüber hinaus organisiert sie das Münster R-User Group Meetup.