Adversarial Reinforcement Learning für sicherheitskritische Szenarien

In den letzten Jahren haben sich (teil-)automatisierte Fahrfunktionen stetig weiterentwickelt. Eine Problematik, die den Einsatz neuartiger Fahrfunktionen verzögert, ist die Sicherheitsevaluation dieser Systeme. Bestehende Fahrfunktionen werden in der Regel anhand von real aufgezeichneten Szenarien evaluiert. Sicherheitskritische Szenarien sind in Realdaten jedoch nur sehr selten vorhanden.

Somit sind Methoden zur künstlichen Erzeugung von Szenarien entscheidend, um Sicherheitsrisiken zu messen und zu minimieren. Adversarial Reinforcement Learning erlaubt eine iterative Parametrierung von Szenarien, wodurch sich, funktionsabgestimmt, Szenarien mit hoher Kritikalität erzeugen lassen.

Vorkenntnisse

  • Grundkenntnisse zu Reinforcement Learning

Lernziele

  • Anwendung von Reinforcement Learning im Kontext des automatisierten Fahrens
  • Szenario-basierte Absicherung von Fahrfunktionen
  • Kritikalitätsdefinition von Szenarien


Speaker

 

Joshua Ransiek
Joshua Ransiek studierte Elektro- und Informationstechnik am Karlsruher Institut für Technologie (KIT) und ist seit Februar 2022 als wissenschaftlicher Mitarbeiter am FZI Forschungszentrum Informatik in Karlsruhe angestellt. Seine Forschungsarbeit konzentriert sich auf die Themen Szenario-basiertes Testen, Adversarial Generation und Reinforcement Learning.

M3-Newsletter

Ihr möchtet über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden