Sensible Daten aus ML-Modellen extrahieren und wie man sich davor schützen kann

Inzwischen ist bekannt, dass maschinelles Lernen auf unterschiedliche Arten angegriffen werden kann. Klassifikationssysteme können mit speziell präparierten Eingaben ausgetrickst werden und wie auch bei Softwaresystemen, können auch in Modelle Hintertüren während des Trainings eingebaut werden.

In diesem Vortrag wird eine weitere Schwachstelle gezeigt, nämlich wie Trainingsdaten aus einem einfachen Machine-Learning-Modell extrahiert werden können. Je nach Art des trainierten Modells könnte ein Angreifer somit Zugriff auf höchst sensible Daten erhalten. Es wird weiterhin gezeigt, wie man solche Angriffe mit Hilfe von Differential Privacy verhindern kann.

Vorkenntnisse

Grundlagen über Neuronale Netze.

Lernziele

Ziel ist es, das Publikum über mögliche Schwachstellen in Machine-Learning-Modellen zu sensibilisieren, sodass potenzielle Risiken, die beim Einsatz von maschinellem Lernen auftreten können, bekannt sind.

 

Speaker

 

Daniel Etzold
Daniel Etzold ist IT Security-Architekt bei der 1&1 Mail & Media Development & Technology GmbH und ist dort mitverantwortlich für den Secure Software Development Lifecycle. Zu seinen Aufgaben zählen unter anderem die Erstellung von Threat Models, das Consulting von Entwicklern, Produktmanagern und Führungskräften sowie die Durchführung von Reviews und Penetrationstests. Er beschäftigt sich weiterhin mit den Risiken und möglichen Sicherheitsproblemen, die durch den Einsatz von Machine Learning entstehen können und wie ML die Sicherheit von Softwaresystemen erhöhen kann.

Gold-Sponsor

Novatec

Silber-Sponsor

inovex

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden