Deepfakes 2.0 – Wie neuronale Netze unsere Welt verändern
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.
Dem TNG-Hardware-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte "Deep Fake"-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik wird es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.
In diesem Vortrag geben Thomas Endres, Martin Förtsch und Jonas Mayer eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deep Fakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.
Vorkenntnisse
* Grobe Funktionsweise von tiefen, neuronalen Netzen
Lernziele
* Die Teilnehmer erfahren, wie Deep Fakes in ihrer ursprünglichen Implementierung funktionieren.
* Außerdem lernen sie verschiedene Möglichkeiten kennen, wie man Bilder und/oder Videos fälscht und wie man zwischen den verschiedenen Fälschungstechniken unterscheidet.
* Im Projektbericht für Deep Fakes 2.0 lernen die Teilnehmer, wie man ein KI-Projekt mit dem Ziel ausführt, Deep Fakes in Echtzeit zu realisieren.
* Die Teilnehmer erfahren mehr über eingesetzte Techniken, wie z.B. Autoencoder, Transfer Learning, GAN (Generative Adversarial Networks) und vieles mehr.