Mit verlängertem Kurzzeitgedächtnis – Anwendungsfälle für Long-Short-Term-Memory-Netze

Im Gegensatz zu einfachen Feed-Forward-Netzen ermöglichen Recurrent-Neural-Network-Architekturen (RNN) – wie zum Beispiel die LSTMs (Long Short-Term Memory) – das Training von zeitbasierten Werten über lange Zeiträume.

Dieser Vortrag erklärt zunächst die Grundlagen dieser Netze und deren Implementierung mit Hilfe von Tensorflow. Darauf aufbauend werden dann geschäftliche Anwendungsfälle vorgestellt, bei denen LSTMs eine mögliche Lösung aufzeigen: Attributionsmodellierung im Online-Marketing, Sentiment Analysis im Kundensupport und automatische Textgenerierung/Verschlagwortung im Content-Marketing

Vorkenntnisse

Grundkenntnisse über künstliche neuronale Netze und Python

Lernziele

Die Teilnehmer sollen ein Verständnis erlangen, was LSTMs sind und welche geschäftlichen Anwendungsfälle sich damit lösen lassen.

 

Speaker

 

Ramon Wartala
Ramon Wartala ist Director Data Science bei der Hamburger Agentur SinnerSchrader.

Gold-Sponsor

Novatec

Silber-Sponsoren

ETECTURE
inovex
inovex
HO Computer
Intel
Phytec

Bronze-Sponsoren

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden