Der Call for Proposals für die Minds Mastering Machines 2025 ist gestartet. Wir freuen uns auf Eure Einreichungen!

Warum der Computer "Nein" sagt – Mehr Nachvollziehbarkeit dank Explainable AI

Häufig stellt die Entwicklung einer ML-Lösung die Optimierung von Performanz-Metriken wie der "Accuracy" unter Verwendung sehr komplexer Modelle in den Fokus. Fälschlicherweise wird sich damit abgefunden, dass aufgrund der höheren Komplexität die Explainability, also die Frage nach dem "Warum verhält sich mein Modell so und nicht anders?" leiden muss. Die Folgen können schwerwiegend sein und reichen vom unwissentlich gelernten Bias aus tabellarischen Daten bis zu einer hohen Anfälligkeit gegenüber Adversarial-Attacks in Bilddaten des autonomen Fahrens.

Warum meiner Meinung nach die Explainability auch bei komplexen Modellen nicht leiden muss, möchte ich in diesem Vortrag verdeutlichen.

Hierfür werde ich verschiedene XAI-Methoden, wie z.B. die Permutation-Importance und LIME, anhand eines konkreten Anwendungsfalles vorstellen, bewerten und vergleichen. Mein Ziel ist es, für XAI zu sensibilisieren und euch einen Methoden-Kasten an die Hand zu geben, der dazu befähigt, den Blick in die Black-Box zu wagen.

Vorkenntnisse

Ein grundlegendes Verständnis für Machine Learning reicht aus.

Lernziele

  • Wichtigkeit von Nachvollziehbarkeit erkennen
  • Gängige XAI-Methoden verstehen und anwenden können

Speaker

 

Tim Wüllner
Tim Wüllner arbeitet als Machine Learning Engineer in Oldenburg. Sein Verlangen nach praxis-orientierter Arbeit führte ihn vor mehreren Jahren zur open knowledge GmbH. Hier wechselte der Fokus dann von zunächst "klassischer" Webentwicklung im Front- und Backend zu Machine Learning spezifischen Aufgaben, insbesondere der Computer Vision und Zeitreihenvorhersage.

M3-Newsletter

Ihr möchtet über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden