Adversarial Reinforcement Learning für sicherheitskritische Szenarien
In den letzten Jahren haben sich (teil-)automatisierte Fahrfunktionen stetig weiterentwickelt. Eine Problematik, die den Einsatz neuartiger Fahrfunktionen verzögert, ist die Sicherheitsevaluation dieser Systeme. Bestehende Fahrfunktionen werden in der Regel anhand von real aufgezeichneten Szenarien evaluiert. Sicherheitskritische Szenarien sind in Realdaten jedoch nur sehr selten vorhanden.
Somit sind Methoden zur künstlichen Erzeugung von Szenarien entscheidend, um Sicherheitsrisiken zu messen und zu minimieren. Adversarial Reinforcement Learning erlaubt eine iterative Parametrierung von Szenarien, wodurch sich, funktionsabgestimmt, Szenarien mit hoher Kritikalität erzeugen lassen.
Vorkenntnisse
- Grundkenntnisse zu Reinforcement Learning
Lernziele
- Anwendung von Reinforcement Learning im Kontext des automatisierten Fahrens
- Szenario-basierte Absicherung von Fahrfunktionen
- Kritikalitätsdefinition von Szenarien