Maschinen ohne Gewissen: Wenn KI auf Ethik trifft
Maschinen haben kein Gewissen. Oder etwa doch?
Immer wieder hört man von Fällen, in denen eine KI scheinbar „unethische“ Entscheidungen fällt oder für politische Zwecke missbraucht wird. Angefangen bei genderspezifischer Benachteiligung, über die Generierung und gezielte Verbreitung von Fake-News und Deep-Fakes bis hin zu offenkundigem Rassismus durch eine KI existieren unzählige Beispiele.
Das Problem liegt dabei weniger im Model selbst als vielmehr in den Daten. Wie also kann man deren Qualität und Neutralität sicherstellen?
Die Session zeigt, wie ein ausgereifter MLOps Prozess dabei helfen kann, QA Pattern im Umfeld von Machine Learning Projekten / Applikationen automatisiert, nachhaltig und reproduzierbar einzubinden. Darüber hinaus wird beleuchtet, welche Regulierungsansätze als passender Maßstab für eine realitätstaugliche Qualitätsbewertung von ML-Projekten und deren Daten herangezogen werden sollten.
Lernziele
- Den Teilnehmer:innen soll ein tiefgehendes Verständnis für die Problematik von absichtlicher oder versehentlicher Diskriminierung im Bereich ML – und deren potenziellen Auswirkungen – vermittelt werden.
- Insbesondere steht dabei der Aspekt der Datenqualität und QA im Fokus.
- Auch aktuelle Ansätze zu einer möglichen Regulierung werden angesprochen und bewertet.