Open-Source Neural Search und Question Answering
Transformer-Modelle haben die NLP-Landschaft grundlegend verändert und die Performanz von Neural Search zur Produktreife gebracht. Wöchentlich neu erscheinende Ansätze erschweren jedoch die Übersicht für Nicht-NLP Experten.
Wir werden in diesem Vortrag neueste Methoden des Neural Search, also generatives Question Answering, Dense Passage Retrieval und Dokumenten-Zusammenfassung einführen und zeigen, wie man sie in modernen Frameworks wie Huggingface’s Transformers oder Deepsets Haystack verwendet.
Für die Domänenanwendung geben wir praktische Tipps zum Erstellen von Annotationen – am Beispiel unseres deutschen Question-Answering-Datensatzes, mit dem man State-of-the-Art-Performanz erreicht.
Vorkenntnisse
Vorkenntnisse im Bereich ML oder NLP sind wünschenswert, aber keine Voraussetzung.
Lernziele
Der Vortrag soll eine Übersicht über den aktuellen Stand im Bereich NLP und Neural Search liefern und zeigen, wie Neural-Search-Methoden angewandt werden.