Neural Embeddings in Produktion – Was kann schief gehen?
Neural Embeddings bilden hochdimensionale Daten in weniger Dimensionen ab. Dabei ist es wünschenswert, Semantik in räumliche Nähe zu übersetzen. Das Potenzial dieser Technik ist groß, und erst nach und nach wird klar, welche Anwendungsfälle davon profitieren können.
Dieser Talk wird interessante Anwendungsfälle aufzeigen und untersuchen, was für unerwartete Probleme dabei für Unternehmen entstehen können.
Der erste Teil führt in die Grundlagen von Neural Embeddings anhand von Variational Auto-Encoders und word2vec ein. Diese haben ihre Anwendung vor allem im Bereich Bild und Text. Der zweite Teil beleuchtet die Herausforderung, Embeddings (Bild & Text) in Produktionsumgebung einzusetzen. Dabei berichtet der Referent über seine Erfahrungen im Umgang mit diesen Problemen.
Vorkenntnisse
Die Teilnehmer sollten wissen, was eine Loss Function, Gradient Descent und Backpropagation sind, und Erfahrungen mit dem Aufbau von Neuronalen Netzen haben.
Lernziele
Die Teilnehmer verstehen, was Neural Embeddings sind, wo man sie einsetzt und wie man sie trainiert. Als Bonus sehen wir uns das Ganze in Produktion an.