Pipelines für Deep Learning mit Small Data

Big Data ist der Treibstoff für Deep Learning. Aber was kann ich tun, wenn meine vorhandene Datenmenge zu klein ist, um die Parameter meines Machine-Learning-Modells ausreichend zu trainieren?

Data Augmentation ist hier oft die Lösung. Aber wie kann ich Data Augmentation sinnvoll in meine bestehende Deep-Learning-Pipeline einbauen? Warum brauche ich überhaupt eine Pipeline, wenn ich doch Jupyter-Notebooks auf meinem Rechner ausführen kann?

In diesem Talk werde ich für Deep-Learning-Anfänger und Machine-Learning-Praktiker Vorteile, Möglichkeiten und Tooling von Pipelines für Deep Learning mit Small Data vorstellen. Dabei wird gezeigt, wie ich Werkzeuge und Prinzipien von Continuous Delivery im Machine-Learning-Umfeld anwenden kann, um mit meinem Machine-Learning-Projekt in die Produktion zu starten.

Vorkenntnisse

* Grundlegende Kenntnisse der Funktionsweise von Machine-Learning-Verfahren
* Grundverständnis neuronaler Netzwerke

Lernziele

* Schwierigkeiten beim Einsatz von Machine Learning mit Small Data
* Überblick Data-Augmentation-Verfahren
* Continuous-Integration-Prozesse für Deep Learning und Data Augmentation
* Werkzeuge für Versionierung, Deployment und Monitoring von Machine-Learning-Modellen

 

Speaker

 

Hauke Brammer
Hauke Brammer arbeitet als Senior Software Engineer bei der Novatec Consulting GmbH. Hier unterstützt er Kunden in den Bereichen Application Development, Cloudanwendungen und Microservices. Als Topic Lead für Machine Learning interessiert er sich besonders für Data Augmentation und Deep Learning mit Small und Big Data.

Gold-Sponsor

Novatec

Silber-Sponsor

inovex

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden