Boosting in Machine Learning – Viele Laien sind besser als ein Experte
Boosting ist eine Technik des maschinellen Lernens, die mehrere schwache Lernmodelle zu einem einzigen starken Modell kombiniert. Dabei muss ein "schwacher Lerner" nur etwas bessere Vorhersagen liefern als zufälliges Raten.
Besonders Adaptive Boosting (kurz "AdaBoost") und Gradient Boosting erfreuen sich seit einigen Jahren wachsender Beliebtheit. Das liegt nicht nur an den Erfolgen dieser Methoden in zahlreichen Machine Learning-Wettbewerben, sondern auch an der relativen Einfachheit in der Anwendung dieser Werkzeuge.
Dieser Vortrag beleuchtet die grundlegenden Ideen hinter den populärsten Boosting-Algorithmen und demonstriert deren Anwendung anhand konkreter Code-Beispiele in Python. Als Vorkenntnis sind grundlegende Kenntnisse im Bereich des Maschinellen Lernen sowie in Python vom Vorteil.
Die Teilnehmer erhalten ein intuitives Verständnis der grundlegenden Funktionsweise von Boosting-Algorithmen. Gleichzeitig steht die Nutzung gängiger Boosting-Implementierungen, beispielsweise scikit-learn und XGBoost, im Fokus.