End-2-End vom Keras TensorFlow-Modell zur Produktion

Durch das stark wachsende Datenvolumen hat sich das Rollenverständnis von Data Scientists erweitert. Statt Machine-Learning-Modelle für einmalige Analysen zu erstellen, wird häufiger in konkreten Entwicklungsprojekten gearbeitet, in denen Prototypen in produktive Anwendungen überführt werden.

Keras ist eine High-Level-Schnittstelle, die ein schnelles, einfaches und flexibles Prototypisieren von neuronalen Netzwerken mit TensorFlow 2 ermöglicht. Zusammen mit Luigi lassen sich beliebig komplexe Datenverarbeitungs-Workflows in Python erstellen. Das führt dazu, dass auch Nicht-Entwickler den End-2-End-Workflow des Keras-TensorFlow-Modells zur Produktionsreife leicht implementieren können.

Vorkenntnisse

* Python: Grundkenntnisse
* Machine Learning:Fortgeschrittene Kenntnisse
* Deep Learning: Grundkenntnisse

Lernziele

* Wie baut man Neuronale Netze mit Keras und TensorFlow 2?
* Wie exportiert man trainierte Modelle?
* Wie bringt man trainierte Modelle in eine Produktionsumgebung?
* Wie baut man einen kompletten Datenverarbeitungs-Workflow mit Luigi?
* Worauf muss man achten, wenn man trainierte Modelle produktiv nutzen möchte?

 

Agenda

ab 10 Uhr: Registrierung und Begrüßungskaffee
11 Uhr: Beginn
Intro
Machine Learning
  • Was ist Machine Learning
  • Der typische ML Workflow
  • Was sind neuronale Netze?
  • Jupyter Lab mit Python
  • Eine Einführung in TensorFlow
  • Keras als High-Level API für TensorFlow
Praxisteil: Deep Learning Modelle mit Keras
  • Convolutional Neural Networks als Deep Learning Ansatz
  • Vortrainierte Modelle nutzen und modifizieren
12.30 - 13.30: Mittagspause
  • Eigene Netze trainieren
  • Evaluation des Modells
Pipelines für die Produktion
  • Anforderungen an produktive Modelle
  • Übersicht über DVC
  • Bau eines Beispiel-Workflows
15.00 - 15.15: Kaffeepause
Praxisteil: Den Keras-Workflow implementieren
  • Einzelschritte als Tasks implementieren
  • Export des Tensorflow-Modells aus Keras
16.30 - 16.45: Kaffeepause
Praxisteil: TensorFlow-Serving
  • Übersicht über TensorFlow-Serving
  • Ladestrategien konfigurieren
ca. 18:00 Uhr: Ende

 

Technische Anforderungen:

  • Notebook mit Adminrechten und Docker (und genügend freiem Speicherplatz, ca. 3GB)
  • Um optimal vorbereitet zu sein, sollten alle Workshop-Teilnehmer Folgendes ausführen:
    • docker pull codecentric/from-keras-to-production-baseimage
    • docker pull codecentric/tensorflow-serving-baseimage
Falls Sie ein Gerät Ihrer Firma verwenden, überprüfen Sie vorher bitte, ob eines der folgenden, gelegentlich vorkommenden Probleme bei Ihnen auftreten könnte:
  • Workshop-Teilnehmer hat keine Administrator-Rechte
  • Corporate Laptops mit übermäßig penibler Sicherheitssoftware
  • Gesetzte Corporate-Proxies, über die man in der Firma kommunizieren muss, die aber in einer anderen Umgebung entsprechend nicht erreicht werden.

Speaker

 

Mark Keinhörster
Mark Keinhörster ist Data Architect bei der codecentric AG. Er ist im Big-Data-Zoo zu Hause und beschäftigt sich außerdem mit Docker, Microservices und Cloud-Technologien.

Shirin Glander
Shirin Glander arbeitet als Data Scientist bei codecentric. Sie hat in der Bioinformatik promoviert und nutzt von Statistik bis Machine Learning verschiedene Methoden, um aus Daten spannende und neue Erkenntnisse zu gewinnen. Regelmäßig bloggt sie über Data-Science-Themen und gibt Schulungen zu Deep Learning mit Keras.

Gold-Sponsor

Novatec

Silber-Sponsoren

ETECTURE
inovex
inovex
HO Computer
Intel
Phytec

Bronze-Sponsoren

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden