Der Call for Proposals für die Minds Mastering Machines 2025 ist gestartet. Wir freuen uns auf Eure Einreichungen!

Zuverlässige KI – Absicherung künstlicher neuronaler Netze

Viele Verfahren des maschinellen Lernens wie etwa Deep Learning werden oftmals als "Black Box" betrachtet, weil es für Menschen unmöglich ist, die internen Entscheidungsprozesse der Verfahren zu verstehen. Für einige Anwendungsfälle, etwa in der Medizin oder im Finanzwesen, sind Sicherheit und Vertrauen jedoch ebenso wichtig wie eine hohe Genauigkeit.

In diesem Vortrag werden wir die folgenden Aspekte des zuverlässigen und vertrauenswürdigen maschinellen Lernens betrachten: Erklärbarkeit, Verifizierung und Quantifizierung der Unsicherheit.

Im Vortrag werden Lösungsansätze vorgestellt und die Vorteile anhand praktischer Anwendungsfälle demonstriert.

Vorkenntnisse

Die Besucher:innen sollten ein Grundverständnis des maschinellen Lernens, insbesondere für künstliche neuronale Netze, mitbringen.

Lernziele

Nach dem Vortrag können die Besucher:innen

  • die Dimensionen einer vertrauenswürdigen und zuverlässigen KI benennen
  • die Herausforderungen bei der Erklärbarkeit, Verifikation und Unsicherheitsquantifizierung verstehen
  • gängige Lösungsansätze für diese Herausforderungen unterscheiden und ggf. anwenden

Speaker

 

Marco Huber
Marco Huber ist seit Oktober 2018 Professor für kognitive Produktionssysteme an der Universität Stuttgart. Zugleich leitet er die Abteilungen Bild- und Signalverarbeitung sowie Cyber Cognitive Intelligence (CCI) am Fraunhofer IPA in Stuttgart. Seine Forschungsarbeiten konzentrieren sich auf die Themen maschinelles Lernen, erklärbare Künstliche Intelligenz (xAI), Bildverarbeitung und Robotik.

M3-Newsletter

Ihr möchtet über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden