Vertrauen Sie uns, dass das 2025er-Programm wieder gut wird? Dann nutzen Sie jetzt das Blind-Bird-Ticket!

Explainable AI oder „wie ich lernte der KI zu vertrauen“

Künstliche Intelligenz wird von Jahr zu Jahr mächtiger. Was vor kurzem noch als Utopie galt, ist heute bereits Realität. Aber haben wir die Systeme noch im Griff? Oder sind wir ihnen hilflos ausgeliefert. Vertrauensbildende Maßnahmen müssen her. Oder wie es in der Fachsprache heißt: Explainable AI.

Im Rahmen des Talks schauen wir uns verschiedene Techniken an, mit denen sich die Ergebnisse von ML-Modellen sowie deren Zustandekommen interpretieren und erklären lassen. Wir lernen, wie man Bias an verschiedenen Stellen des ML-Lifecycles aufspürt und bei „unfairem“ bzw. unerwünschtem Verhalten gezielt gegensteuert. Darüber hinaus betrachten wir die Anwendung von Metriken zur Bewertung von LLM-basierten Systemen wie z.B. Retrieval Augmented Generation Services (kurz RAG).

Am Ende haben wir dann hoffentlich alle wieder hinreichen Vertrauen ins unsere ML-Modelle. Und wenn nicht, dann kennen wir zumindest die Werkzeuge, mit denen wir bzw. die Anwender der Modelle das Vertrauen zurückgewinnen können.

Speaker

 

Lars Röwekamp
Lars Röwekamp ist Gründer der open knowledge GmbH und beschäftigt sich als „CIO New Technologies“ mit der Analyse und Bewertung neuer Software- und Technologietrends. Ein besonderer Schwerpunkt seiner Arbeit liegt derzeit auf Enterprise- und Cloud-Computing, Big Data und KI, wobei neben Design und Architekturfragen insbesondere die Real-Life-Aspekte im Fokus stehen.

M3-Newsletter

Ihr möchtet über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden