Hyperparameter optimieren mit AutoML
Sie trainieren gerne und oft ML-Modelle auf verschiedensten Datensätzen. Aber haben Sie wirklich alles aus Ihrem Modell herausgeholt? Funktionieren eigentlich immer die gleichen Hyperparametereinstellungen auf jeden Datensatz gut? Was genau sind eigentlich Hyperparameter? Wollen Sie mehr als nur Hyperparameter einstellen, beispielsweise auch das Feature-Preprocessing auswählen? Wie optimieren wir automatisch die gesamte ML-Pipeline?
Dieser Vortrag liefert die nötige Grundlage, um AutoML-Methoden zu verstehen und für die tägliche Arbeit effektiv einzusetzen. Das Ziel ist, die Entwicklung von ML-Anwendungen
schneller, effektiver und aufwandsfreier zu gestalten, um das Beste aus Ihren Daten rauszuholen. Im Zentrum unseres Vortrags stehen praxisnahe Ansätze, die sich direkt aus unserer Forschung ableiten.
Konkret beleuchten wir die Ideen hinter effizienter Hyperparameteroptimierung mit Bayes’scher Optimierung und zeigen auf, wie diese Methode die Modellgenauigkeit verbessert. Wir erklären dazu wie Sie Approximationen an die finale Performanz oder eure eigene Intuition zu Hyperparametern einsetzen kannst, um noch schneller gute Hyperparametereinstellungen zu finden.
Vorkenntnisse
- ML-Grundlagen: Verständnis der Basisprinzipien und ML-Algorithmen
- Evaluationsstrategien für ML Algorithmen
- Praktische Erfahrung in der Anwendung von ML
Lernziele
- Vorteile des automatisierten Maschinellen Lernen (AutoML) kennenlernen
- Verständnis von Hyperparametern und deren Bedeutung für die Performanz von ML
Modellen
- Einblicke in die Vorgehensweise von Bayes’scher Optimierung und modernste Erweiterungen
- Überblick über Open-Source-AutoML-Tools