TinyML – Vom Herzfehler zum Triggerwort und das ganz ohne Internet
Deep Learning ist in den letzten Jahren auf einer wahren Erfolgswelle gesurft. Erfahrungsgemäß benötigt das Lernen von Deep-Learning-Modellen viele Ressourcen, weshalb Deep Learning in der Cloud sehr erfolgreich war.
Das ist aber nicht in allen Situationen anwendbar. Viele Anwendungen erfordern eine geräteinterne Inferenz. In einigen Bereichen ist eine ständige Internetverbindung nicht gewährleistet oder es ist aufgrund von Datenschutzanforderungen und -vorschriften sehr schwierig, Daten zur Verarbeitung in die Cloud zu senden.
Diese Erfordernisse haben machen das Ausführen von ML-Modellen auf kleinen und kostengünstigen Geräten attraktiv. TinyML ermöglicht die Ausführung von Deep-Learning-Modellen auf Mikrocontrollern (MCU).
In diesem Talk schauen wir uns an, auf welchen Geräten welche Arten von DL-Modellen möglich ist und welche Abstriche man evtl. an der Genauigkeit des Modells machen muss. Dabei tasten wir uns über Spracherkennung auf mobilen Geräten, über Erkennung von EKG-Mustern auf SmartWatches bis hin zur Triggerworterkennung auf MCUs vor.
Neben den theoretischen Betrachtungen rund um DL-Modelle auf kleinen Devices, werden die Resultate natürlich auch an praktischen Beispielen (Code und Device) vorgestellt
Lernziele
- Inferencing von DL-Modellen auf unterschiedlichen Devices
- Unterschiede zwischen Accuracy und Geschwindigkeit bei DL-Modellen