Der Call for Proposals für die Minds Mastering Machines 2025 ist gestartet. Wir freuen uns auf Eure Einreichungen!

Einführung in große Sprachmodelle

Jeder kennt ChatGPT. Doch Sprachmodelle gibt es in viel mehr Ausprägungen. Das beginnt schon bei den generativen Varianten, wo Metas Llama eine Art Urknall ausgelöst hat. Es gibt zwischenzeitlich unzählige Abkömmlinge, die auf ganze spezielle Aufgaben angepasst sind. Aber auch bei den Foundation Models ist man nicht nur auf OpenAI angewiesen – es gibt leistungsfähige Alternativen, die mit sehr viel weniger Parametern auskommen und strukturell neue Ansätze nutzen.

Doch nicht nur generative Modelle sind sinnvoll, sondern auch Encoder-Modelle wie BERT und davon abgeleitet. So lassen sich Satzähnlichkeiten bestimmen, die als Basis für viele Retrieval-Aufgaben dienen und den generativen Modellen so das Halluzinieren abgewöhnen können.

Dieser Vortrag gibt einen Überblick über aktuelle Modelle sowie neue Entwicklungen und wagt einen Ausblick, wie es weitergehen könnte.

Speaker

 

Christian Winkler
Christian Winkler beschäftigt sich seit vielen Jahre mit künstlicher Intelligenz, speziell in der automatisierten Analyse natürlichsprachiger Texte (NLP). Als Professor an der TH Nürnberg konzentriert sich seine Forschung auf die Optimierung von User Experience mithilfe moderner Verfahren. Er forscht und publiziert zu Natural Language Processing und ist regelmäßig Sprecher auf Machine Learning-Konferenzen.

M3-Newsletter

Ihr möchtet über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden