Neuronale Netzwerke mit TensorFlow 2: von unten nach oben

TensorFlow ist Googles Framework für Neuronale Netzwerke und auch über die Grenzen von Google hinaus ein Standard. In Version 2 hat sich vor allem das Low-Level-API stark verbessert.

Damit werden wir beginnen, um Neuronale Netze anhand einer Regressionsaufgabe von Null auf zu verstehen, ohne eine Zeile Mathematik zu benötigen. Danach sehen wir uns dasselbe mit der High-Level-Keras-API an, die das gleiche tut, aber von den von uns vorher gemachten Schritten abstrahiert. Von da aus sehen wir uns an, wie man denselben Ansatz auch für eine Klassifikationsaufgabe verwenden kann.

Du lernst dabei

* den Unterschied zwischen Regression und Klassifikation,
* dass Matrixmultiplikationen die Basis für Neuronale Netzwerke sind,
* was Loss Functions sind und
* wie man von einer Loss Function zu einem trainierten Neuronalen Netzwerk kommt.

Vorkenntnisse

* Eine Grundidee von Machine Learning
* Keine Kenntnisse in Neuronalen Netzwerken oder TensorFlow notwendig.
* Auch interessant für Teilnehmer, die bereits Neuronale Netzwerke verstehen, aber sehen wie diese mit TensorFlow 2 umgesetzt werden.

Lernziele

Grundverständnis für Neuronale Netzwerke und wie diese mit TensorFlow 2 umgesetzt werden können.

 

Speaker

 

Oliver Zeigermann
Oliver Zeigermann ist Entwickler, Architekt, Berater und Coach. Oliver hat über Jahrzehnte in vielen unterschiedlichen Sprachen und mit vielen Technologien Software entwickelt. In den letzten Jahren ist er wieder tiefer in den Bereich Machine Learning eingestiegen. Er knüpft damit an sein Studium der Künstlichen Intelligenz in den 90er-Jahren an. Er ist Autor des Manning Video-Kurses "Deep Learning Crash Course" und Co-Autor des Buchs "Machine Learning – kurz & gut" das bei O’Reilly erschienen ist. Mehr unter http://zeigermann.eu/.  

Gold-Sponsor

Novatec

Silber-Sponsor

inovex

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden