Sie möchten mit Ihrem Team teilnehmen? Ab drei Personen gibt es im Shop automatisch einen Gruppenrabatt.

Real-Life GenAI: (M)ein RAG-System, vom Prototyp zu Production Ready

Generative AI ist derzeit in aller Munde. Eine einfache Lösung auf Hello-World-Niveau ist dank passender Frameworks und Libraries schnell aufgesetzt. Aber leider halten diese Lösungen den Anforderungen der Praxis nicht annähernd stand.

Im Rahmen des Workshops bauen wir Schritt für Schritt unsere eigene GenAI-Lösung in Form eines RAG-basierten Systems (Retrieval Augmented Generation) zur Abfrage von domänenspezifischem Fachwissen auf.

Dabei laufen wir bewusst in die eine oder andere Stolperfalle, unterziehen so unsere Lösung einem Reality-Check und nutzen die gewonnenen Erkenntnisse zur Verbesserung unseres Systems.

Am Ende steht ein GenAI-basiertes RAG-System, das ruhigen Gewissens in der Praxis eingesetzt werden kann – und das als integrierte Lösung aka „AI-as-a-Service“ für mehrere Sprachen parallel mit rollenbasierten Zugriffsberechtigungen auf die zugrundeliegenden Daten.

Folgende Aspekte werden wir in Theorie und Praxis im Detail beleuchten:
  • GenAI Model Selection & Integration
  • Prompt Engineering Best Practices
  • Architekturbausteine eines RAG-Systems
  • Guardrails zur Absicherung von Eingang und Ausgang
  • Optimierung der Ingestion- und Retrieval-Strategien
  • LLM Quality Assurance & Laufzeitmetriken
  • Real-Life Best Practices & Pitfalls

Vorkenntnisse

Die Teilnehmer des Workshops sollten grundlegende Erfahrung mit GenAI-Lösungen sowie Python/Jupiter-Notebooks (für die Hands-on-Übungen) mitbringen.

Lernziele

Das Lernziel des Workshops ist es, ein GenAI-System über die Grenzen der gängigen Hello-World Tutorials hinaus in der Art aufzubauen, dass es den realen Anforderungen der Praxis stand hält.

Technische Anforderungen

Die Übungen finden mit Hilfe einer vorbereiteten Google-Colab-Umgebung statt. Alles, was dazu benötigt wird, ist ein aktiver Google Account und ein Laptop.

Speaker

 

Lars Röwekamp
Lars Röwekamp ist Gründer und Geschäftsführer der open knowledge GmbH und beschäftigt sich als „CIO New Technologies“ mit der Analyse und Bewertung neuer Software- und Technologietrends. Ein besonderer Schwerpunkt seiner Arbeit liegt derzeit auf Enterprise und Cloud Computing, Big Data und KI, wobei neben Design- und Architekturfragen insbesondere die Real-Life-Aspekte im Fokus seiner Betrachtung stehen.

Tim Wüllner
Tim Wüllner ist Machine Learning Engineer bei der open knowledge GmbH in Oldenburg. Nach drei Jahren in der Wissenschaft im Bereich „Autonome Schifffahrt“ begeistert er sich nun für die Umsetzung von ML-Projekten in komplexen Webanwendungen.

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden