Vertrauen Sie uns, dass das 2025er-Programm wieder gut wird? Dann nutzen Sie jetzt das Blind-Bird-Ticket!

RAGtime – Wie sich effiziente RAG-Systeme bauen lassen

LLMs verfügen nur über das Wissen, das sie beim Training erhalten haben. Es fehlen somit aktuellere Informationen oder spezialisierte, nicht öffentlich verfügbare beziehungsweise beim Training unberücksichtigte Informationen.

Der Vortrag zeigt, wie sich ein LLM durch Retrieval Augmented Generation (RAG) mit entsprechendem Wissen anreichern lässt.

Neben den Grundlagen kommen verschiedene technische Alternativen für RAG zur Sprache. Ein konkretes Beispiel veranschaulich die notwendigen Arbeitsschritte, um systematisch ein eigenes und effizientes RAG-System aufzubauen. Dort finden sich Themen wie Tokens, Attention Masks, Pre-und Post-processing, Embeddings, Embedding Modelle, Chunking, Vektordatenbanken, kontextualisierte Prompts, deren Selektion und Kombination über die Effizienz des resultierenden Systems entscheiden. Am Schluss erfahren Teilnehmer über RAG-Alternativen wie etwa Finetuning und wann man sie (nicht) einsetzen sollte.

Vorkenntnisse

Grundkenntnisse über LLMs und Python. RAG-Vorkenntnisse sind nicht notwendig.

Lernziele

Sie lernen den Einsatz von Retrieval Augmented Generation sowie dessen Stärken kennen, ebenso wie die Fallstricke durch falsche Wahl von Algorithmen, Dokumenten oder Komponenten.

Speaker

 

Michael Stal
Michael Stal arbeitet in der Technologiezentrale Foundational Technologies der Siemens AG. Dort beschäftigt er sich primär mit Softwarearchitekturen für verteilte und eingebettete Systeme und (Gen)AI.

M3-Newsletter

Ihr möchtet über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden