Explainable AI oder: „Wie ich lernte, der KI zu vertrauen“
Künstliche Intelligenz wird von Jahr zu Jahr mächtiger. Was vor Kurzem noch als Utopie galt, ist heute bereits Realität. Aber haben wir die Systeme noch im Griff? Oder sind wir ihnen hilflos ausgeliefert. Vertrauensbildende Maßnahmen müssen her. Oder wie es in der Fachsprache heißt: Explainable AI.
Im Rahmen des Vortrags schauen wir uns verschiedene Techniken an, mit denen sich die Ergebnisse von ML-Modellen sowie deren Zustandekommen interpretieren und erklären lassen. Wir lernen außerdem, wie man Bias an verschiedenen Stellen des ML-Lifecycles aufspürt und bei "unfairem" beziehungsweise unerwünschtem Verhalten gezielt gegensteuert. Darüber hinaus betrachten wir die Anwendung von Metriken zur Bewertung von LLM-basierten Systemen wie Retrieval Augmented Generation Services (kurz RAG).
Am Ende haben wir dann hoffentlich alle wieder hinreichen Vertrauen ins unsere ML-Modelle. Und wenn nicht, dann kennen wir zumindest die Werkzeuge, mit denen wir bzw. die Anwender der Modelle das Vertrauen zurückgewinnen können.