Sentence Embeddings in der Praxis

Transfer Learning und Sprachmodelle wie BERT haben in den letzten Jahre einen enormen Innovationsschub im NLP-Bereich ausgelöst. Relativ neu und sehr spannend sind in diesem Zusammenhang die Sentence Embeddings (sbert.net), die sehr universell eingesetzt werden können.

Der Vortrag zeigt einige Anwendungsgebiete mit Beispielen aus den Bereichen Re-Ranking, Cross-Encoder und Erkennung von ähnlichen Bedeutungen in unterschiedlichen Sprachen.

Die Kombination dieser Methoden eignet sich außerdem, um ungelabelte Daten automatisch zu klassifizieren oder teilkategorisierte Datensets zu erweitern. Beide Anwendungsfälle kommen in der Praxis häufig vor und konnten bisher nur aufwendig manuell gelöst werden.

Speaker

 

Christian Winkler
Christian Winkler ist Data Scientist und Machine Learning Architect bei datanizing. Er promovierte in theoretischer Physik und arbeitet seit 20 Jahren im Bereich großer Datenmengen und Künstliche Intelligenz, insbesondere mit Fokus auf skalierbaren Systemen und intelligenten Algorithmen zur Massentextverarbeitung.

Gold-Sponsor

infoteam
Novatec

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden