Mit verlängertem Kurzzeitgedächtnis – Anwendungsfälle für Long-Short-Term-Memory-Netze
Im Gegensatz zu einfachen Feed-Forward-Netzen ermöglichen Recurrent-Neural-Network-Architekturen (RNN) – wie zum Beispiel die LSTMs (Long Short-Term Memory) – das Training von zeitbasierten Werten über lange Zeiträume.
Dieser Vortrag erklärt zunächst die Grundlagen dieser Netze und deren Implementierung mit Hilfe von Tensorflow. Darauf aufbauend werden dann geschäftliche Anwendungsfälle vorgestellt, bei denen LSTMs eine mögliche Lösung aufzeigen: Attributionsmodellierung im Online-Marketing, Sentiment Analysis im Kundensupport und automatische Textgenerierung/Verschlagwortung im Content-Marketing
Vorkenntnisse
Grundkenntnisse über künstliche neuronale Netze und Python
Lernziele
Die Teilnehmer sollen ein Verständnis erlangen, was LSTMs sind und welche geschäftlichen Anwendungsfälle sich damit lösen lassen.