Eigene Sprachmodelle feintunen und nutzen
Dieser Workshop findet am 27. März 2025 online statt.
ChatGPT ist das bekannteste Sprachmodell. Leider gibt es hier aber nur wenig Eingriffsmöglichkeiten und es kann auch nicht auf interne Daten zugreifen.
In vielen Unternehmensanwendungen würde man das aber gerne machen, um z.B. eigene Dokumente und domänenspezifisches Vokabular zu berücksichtigen. Das ist problemlos möglich, wenn man offene Sprachmodelle nutzt und diese anpasst („Finetuning“). Im Gegensatz zum Training ist dieses Feintuning von Modellen um viele Größenordnungen schneller. Die dazu verwendeten Technologien werden ständig weiterentwickelt.
Nach einem kurzen Abriss der Theorie probieren wir verschiedene offene Sprachmodelle aus. Zunächst konzentrieren wir uns auf das Finden von Dokumenten. Schließlich widmen wir uns dem Feintuning eigener Modelle und schauen uns unterschiedliche Strategien und Software-Pakete dafür an.
Vorkenntnisse
Alle Aufgaben werden mit Python durchgeführt. Es sind keine schwierigen Programme, aber gewisse Grundlagen in Python sind sehr hilfreich.
Lernziele
- Funktionsweise von Sprachmodellen
- Unterschied zwischen Embedding- und generativen Modellen
- Performance und Speicheranforderungen von LLMs beurteilen können
- Grundlagen der Quantisierung
- Verständnis des FInetunings (LoRA, peft)