Data Poisoning: den vergifteten Apfel erkennen und Risiken für ML-Anwendungen minieren

ML-Modelle sind nur so gut wie die Quallität der Daten und deren Klassifizierung beim Training. Dadurch ergeben sich eine Vielzahl von neuen Optionen für Angreifer, um Modelle durch gezielte Datenverunreinigung – auch bekannt als Data Poisoning – in eine gewünschte Richtung zu beeinflussen.

Erschwert wird diese Situation durch die Komplexität von ML-Anwendungen und -Architekturen in der Praxis. Neben der großen Angriffsoberfläche innerhalb der Systemarchitektur gibt es zudem zahlreiche Punkte, bei denen Daten durch Störungen in der Datenlieferkette zum vergifteten Apfel für ML-Modelle und -Trainings werden können.

Der Vortrag zeigt anhand von praktischen Beispielen die Angriffspunkte für Data Poisoning auf und gibt Hinweise zur Risikominimierung.

Vorkenntnisse

  • Grundprinzipien bei der Konzeption und Anwendung von Sytemen des maschinellen Lernens.
  • Der Vortrag richtet sich an Systemdesiger, Architekten und Entwickler.

Lernziele

Im Vortrag werden die aktuellen Sicherheitsprobleme bei Systemen für maschinelles Lernen dargestellt. Zudem gibt der Vortrag praktische Tipps, wie solche Fallstricke in der Konzeption und Umsetzung von Systemen vermieden werden können. Ebenso werden Maßnahmen zur Risikominimierung von Angriffen auf maschinelles Lernen präsentiert.

Speaker

 

Mirko Ross
Mirko Ross , Jahrgang 1972, ist ein international anerkannter Aktivist, Experte, Redner, Publizist und Forscher im Bereich Cybersicherheit. Im Bereich ML-Systeme untersucht er die Angriffsvektoren in nationalen und internationalen Forschungsgruppen wie PoisonIVY (gemeinsam mit dem KIT) und Erastosthenes (EU).

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden