Machine-Learning-Modelle zu erstellen und zu trainieren ist erst der Anfang, um aus Daten echten Nutzen zu generieren. Richtig spannend wird es vor allem, wenn diese Modelle in bestehende Anwendungen und Prozesse integriert werden sollen. Nach dem Deployment der Modelle gilt das Gleiche wie beim Menschen auch – man lernt nie aus, das Gelernte ist nicht statisch. Es muss also sichergestellt werden, dass sich die Modelle kontinuierlich an die sich verändernde Realität angepasst werden.
In diesem Vortrag gehe ich zuerst kurz in einer Live-Demo auf das Thema Deployment ein und werde dann zeigen, wie sich kontinuierliches Lernen in der Praxis umsetzen lässt.
// Stephan Reimann
ist IT Specialist für Big Data bei IBM Deutschland. Er unterstützt Kunden bei der Erstellung von Konzepten für Big-Data-Lösungen, von der Ideendiskussion über die Lösungsarchitektur bis zur Umsetzung in Pilotprojekten. Sein aktueller Fokus liegt auf der Erstellung innovativer Cloud-Lösungen mit kognitiven und analytischen Cloud-Diensten sowie auf Echtzeit-/Streaming-Analysen.