Security-Schwachstellen im Machine Learning
Machine Learning hat sich in den letzten Jahren zu einer vielversprechenden Technologie entwickelt, die in immer mehr Produkten zu finden ist. Es ist davon auszugehen, dass dieser Trend bestehen bleibt und sich in den nächsten Jahren sogar noch verstärken wird. Auch in sicherheitsrelevanten und lebenskritischen Anwendungen wird Machine Learning zunehmend eingesetzt, und das, obwohl noch immer nicht sehr viel über die Sicherheit dieser Systeme bekannt ist und regelmäßig neue Angriffe veröffentlicht werden.
In diesem Vortrag werden unter anderem Beispiele gezeigt, wie sich Spamfilter (basierend auf Naive Bayes) und Bilderkennungssysteme (Convolutional Neural Networks) austricksen lassen, wie Angreifer Hintertüren in Modelle integrieren können und dass sich sensible Daten aus Modellen zur Erzeugung von Texten extrahieren lassen.
Vorkenntnisse
Grundlagen in Machine Learning sind von Vorteil, aber nicht unbedingt notwendig.
Lernziele
Aktuell beschäftigen sich viele primär mit der Frage, wie Machine Learning verbessert und in Produkte integriert werden kann, und übersehen dabei häufig andere Dimensionen. Ziel ist es, das Publikum bzgl. möglicher Schwachstellen in Machine-Learning-Verfahren zu sensibilisieren, damit potenzielle Risiken beim Einsatz von Machine Learning berücksichtigt werden können.