Konferenz für
Machine Learning und Künstliche Intelligenz
Köln, 24.-26. April 2018

Minds Mastering Machines 2018 » Programm »

// Erklärbarkeit von Machine Learning: Wie können wir Vertrauen in komplexe Modelle schaffen?

Mit Machine-Learning getroffene Entscheidungen sind inhärent schwierig – wenn nicht gar unmöglich – nachzuvollziehen. Die Komplexität einiger der besten Modelle, wie Neuronale Netzwerke, ist genau das, was sie so erfolgreich macht. Aber es macht sie gleichzeitig zu einer Black Box. Das kann problematisch sein, denn Geschäftsführer oder Vorstände werden weniger geneigt sein, einer Entscheidung zu vertrauen und nach ihr zu handeln, wenn sie sie nicht verstehen.

Local Interpretable Model-Agnostic Explanations (LIME) ist ein Versuch, diese komplexen Modelle zumindest teilweise nachvollziehbar zu machen. In diesem Vortrag erkläre ich das Prinzip und zeige Anwendungsbeispiele von LIME.

Vorkenntnisse
Grundkenntnisse Machine Learning & Statistik

Lernziele
* Einblick in Möglichkeit, die komplexe Modelle erklärbar machen
* Vertrauen in Entscheidungen durch Machine Learning schaffen

// Shirin Glander Shirin Glander

ist promovierte Biologin und Data Scientist und verfügt über fundierte Kenntnisse in Statistik und Machine Learning. Neben fachlicher Kompetenz im Bereich Data Science und Machine Learning liegt ihr die Vermittlung von Wissen an ein breiteres Publikum sehr am Herzen. So schreibt sie einen Data Science Blog, hält Webinare (z.B. “Building meaningful machine learning models for disease prediction“) und trägt Artikel zu codecentrics Blog bei. Darüber hinaus organisiert sie das Münster R-User Group Meetup.