Mit verlängertem Kurzzeitgedächtnis – Anwendungsfälle für Long-Short-Term-Memory-Netze

Im Gegensatz zu einfachen Feed-Forward-Netzen ermöglichen Recurrent-Neural-Network-Architekturen (RNN) – wie zum Beispiel die LSTMs (Long Short-Term Memory) – das Training von zeitbasierten Werten über lange Zeiträume.

Dieser Vortrag erklärt zunächst die Grundlagen dieser Netze und deren Implementierung mit Hilfe von Tensorflow. Darauf aufbauend werden dann geschäftliche Anwendungsfälle vorgestellt, bei denen LSTMs eine mögliche Lösung aufzeigen: Attributionsmodellierung im Online-Marketing, Sentiment Analysis im Kundensupport und automatische Textgenerierung/Verschlagwortung im Content-Marketing

Vorkenntnisse

Grundkenntnisse über künstliche neuronale Netze und Python

Lernziele

Die Teilnehmer sollen Verständnis erlangen, was LSTMs sind und welche geschäftlichen Anwendungsfälle sich damit lösen lassen.

 

Speaker

 

Ramon Wartala Ramon Wartala ist Director Data Science bei der Hamburger Agentur SinnerSchrader.

Gold-Sponsor

Novatec

Minds Mastering Machines-Newsletter

Sie möchten über den Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden