Pipelines für Deep Learning mit Small Data
Big Data ist der Treibstoff für Deep Learning. Aber was kann ich tun, wenn meine vorhandene Datenmenge zu klein ist, um die Parameter meines Machine-Learning-Modells ausreichend zu trainieren?
Data Augmentation ist hier oft die Lösung. Aber wie kann ich Data Augmentation sinnvoll in meine bestehende Deep-Learning-Pipeline einbauen? Warum brauche ich überhaupt eine Pipeline, wenn ich doch Jupyter-Notebooks auf meinem Rechner ausführen kann?
In diesem Talk werde ich für Deep-Learning-Anfänger und Machine-Learning-Praktiker Vorteile, Möglichkeiten und Tooling von Pipelines für Deep Learning mit Small Data vorstellen. Dabei wird gezeigt, wie ich Werkzeuge und Prinzipien von Continuous Delivery im Machine-Learning-Umfeld anwenden kann, um mit meinem Machine-Learning-Projekt in die Produktion zu starten.
Vorkenntnisse
* Grundlegende Kenntnisse der Funktionsweise von Machine-Learning-Verfahren
* Grundverständnis neuronaler Netzwerke
Lernziele
* Schwierigkeiten beim Einsatz von Machine Learning mit Small Data
* Überblick Data-Augmentation-Verfahren
* Continuous-Integration-Prozesse für Deep Learning und Data Augmentation
* Werkzeuge für Versionierung, Deployment und Monitoring von Machine-Learning-Modellen