Gemeinsam stark: Ensemble Learning
Die Idee beim Ensemble Learning ist, eine Kombination verschiedener Modelle eine gemeinsame Vorhersage treffen zu lassen. Einem Expertengremium gleich kann die abgestimmte Vorhersage gegenüber einer Einzelmeinung zu einem ausgewogenen und präzisen Urteil führen und die Stärken und Schwächen der Einzelmeinungen gegeneinander ausgleichen sowie maßgebliche Einschätzungen höher bewerten.
Dieser Vortrag vermittelt an konkreten Beispielen, wie Ensemble-Learning eingesetzt werden kann, um aus einer Menge von Klassifikationsmodellen einen starken und robusten Klassifizierer zu konstruieren. Wir beleuchten mit Hilfe von jupyter notebooks und scikit-learn unterschiedliche Verfahren zur Kombination der Modelle wie Bagging, Boosting und Stacking, sowie die speziellen (Meta-)Algorithmen AdaBoost und XGBoost.
Wir zeigen, wie solche fortgeschrittenen Verfahren genutzt werden, um ML-Wettbewerbe wie bei Kaggle zu gewinnen. Andererseits spielt in Businessanwendungen nicht nur die Genauigkeit der Ensemble-Vorhersagen eine Rolle, sondern auch deren Performance und Einsetzbarkeit in Produktivsystemen (Netflix Prize).
Vorkenntnisse
* Erste Erfahrung mit Machine Learning: Erstellen und Auswerten von grundlegenden Modellen wie Entscheidungsbäumen, lineare/logistische Regression oder Naive Bayes.
* Python-Kenntnisse
* Optional: Vertrautheit mit scikit-learn.
Lernziele
* Einführung in die Ideen und Anwendungsbereiche des Ensemble Learnings
* Erkennen der Anwendungsgebiete
* Erlernen der wesentlichen Techniken, sowohl theoretisch als praktisch
* Umsetzung des Wissens an konkreten Beispielen mit Hilfe von scikit-learn