Sie möchten mit Ihrem Team teilnehmen? Ab drei Personen gibt es im Shop automatisch einen Gruppenrabatt.

Wie gut arbeitet mein RAG-System wirklich?

Der Vortrag stellt einen systematischen Ansatz zur Evaluation von RAG-Systemen (Retrieval-Augmented Generation) vor. Zu Beginn werden zentrale Konzepte wie LLM-as-a-Judge, Chain of Thought, GEval, Human-in-the-Loop sowie verschiedene Evaluationsmetriken eingeführt. Diese Grundlagen bilden die Basis für ein fundiertes Verständnis der Bewertungsmethoden im Kontext von RAG-Systemen.

Im zweiten Teil wird eine praktische Evaluation einer Beispielapplikation aus dem vorherigen Vortrag präsentiert. Dabei kommen die Tools MLFlow und DeepEval zum Einsatz, um die Effizienz und Leistungsfähigkeit der Anwendung zu analysieren. Ziel des Vortrags ist es, die praktische Relevanz dieser Evaluationsansätze zu demonstrieren und zu zeigen, wie sie zur Weiterentwicklung und Optimierung von RAG-Systemen beitragen können.

Vorkenntnisse

Die Zuhörenden sollten mit den Grundlagen des maschinellen Lernens, Python und der Anwendung von LLMs vertraut sein.

Lernziele

Die Zuhörenden lernen, wie RAG-Systeme systematisch evaluiert werden können, indem sie zentrale Konzepte, Evaluationsmetriken und Werkzeuge wie MLFlow und DeepEval verstehen und anwenden. Ziel ist es, praxisnah zu vermitteln, wie diese Methoden zur Analyse und Optimierung der Leistungsfähigkeit von RAG-Systemen beitragen.

Speaker

 

Dominik Fladung
Dominik Fladung ist IT-Consultant bei codecentric mit Fokus auf Generative AI (GenAI) und die Evaluation von Retrieval-Augmented Generation (RAG)-Systemen. Als Fullstack-Webentwickler entwickelt er innovative Lösungen und berät Unternehmen bei ihrer Umsetzung. Sein Wissen gibt er gerne weiter, unter anderem als Inspirer bei der Hackerschool und durch seine Unterstützung des Events „Hack your Holidays“ im Pioneers Club.

M3-Newsletter

Ihr möchtet über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden