Sie möchten mit Ihrem Team teilnehmen? Ab drei Personen gibt es im Shop automatisch einen Gruppenrabatt.

Eigene Sprachmodelle feintunen und nutzen


Dieser Workshop findet am 19. März 2025 online statt.


ChatGPT ist das bekannteste Sprachmodell. Leider gibt es hier aber nur wenig Eingriffsmöglichkeiten und es kann auch nicht auf interne Daten zugreifen.

In vielen Unternehmensanwendungen würde man das aber gerne machen, um z.B. eigene Dokumente und domänenspezifisches Vokabular zu berücksichtigen. Das ist problemlos möglich, wenn man offene Sprachmodelle nutzt und diese anpasst („Finetuning“). Im Gegensatz zum Training ist dieses Feintuning von Modellen um viele Größenordnungen schneller. Die dazu verwendeten Technologien werden ständig weiterentwickelt.

Nach einem kurzen Abriss der Theorie probieren wir verschiedene offene Sprachmodelle aus. Zunächst konzentrieren wir uns auf das Finden von Dokumenten. Schließlich widmen wir uns dem Feintuning eigener Modelle und schauen uns unterschiedliche Strategien und Software-Pakete dafür an.

Vorkenntnisse

Alle Aufgaben werden mit Python durchgeführt. Es sind keine schwierigen Programme, aber gewisse Grundlagen in Python sind sehr hilfreich.

Lernziele

  • Funktionsweise von Sprachmodellen
  • Unterschied zwischen Embedding- und generativen Modellen
  • Performance und Speicheranforderungen von LLMs beurteilen können
  • Grundlagen der Quantisierung
  • Verständnis des FInetunings (LoRA, peft)

Agenda

  • Kurze Vorstellung und Zieldefinition
  • Recap große Sprachmodelle (BERT und GPT)
  • BERT-Modelle nutzen und finetunen
  • GPT-Modelle nutzen (Quantisierung, Prompting, RAG)
  • GPT-Modelle finetunen
  • Zusammenfassung und Feedback

     

Technische Anforderungen

Die Teilnehmenden sollten über eine Python-Installation (sinnvollerweise mit Jupyter) verfügen oder auf Google Colab zugreifen können. Wir werden auf jeden Fall GPUs benötigen, entweder das ist lokal vorhanden, kann über Colab genutzt werden oder diejenigen, die das nicht haben, können bei bestimmten Aufgaben nur zuschauen.

Speaker

 

Christian Winkler
Christian Winkler beschäftigt sich seit vielen Jahre mit künstlicher Intelligenz, speziell in der automatisierten Analyse natürlichsprachiger Texte (NLP). Als Professor an der TH Nürnberg konzentriert er sich auf die Optimierung von User Experience mithilfe moderner Verfahren. Er forscht und publiziert zu Natural Language Processing und ist regelmäßig Sprecher auf Machine Learning-Konferenzen.

M3-Newsletter

Ihr möchtet über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden