Maschinen ohne Gewissen: Wenn KI auf Ethik trifft

Maschinen haben kein Gewissen. Oder etwa doch?

Immer wieder hört man von Fällen, in denen eine KI scheinbar „unethische“ Entscheidungen fällt oder für politische Zwecke missbraucht wird. Angefangen bei genderspezifischer Benachteiligung, über die Generierung und gezielte Verbreitung von Fake-News und Deep-Fakes bis hin zu offenkundigem Rassismus durch eine KI existieren unzählige Beispiele.

Das Problem liegt dabei weniger im Model selbst als vielmehr in den Daten. Wie also kann man deren Qualität und Neutralität sicherstellen?

Die Session zeigt, wie ein ausgereifter MLOps Prozess dabei helfen kann, QA Pattern im Umfeld von Machine Learning Projekten / Applikationen automatisiert, nachhaltig und reproduzierbar einzubinden. Darüber hinaus wird beleuchtet, welche Regulierungsansätze als passender Maßstab für eine realitätstaugliche Qualitätsbewertung von ML-Projekten und deren Daten herangezogen werden sollten.

Lernziele

  • Den Teilnehmer:innen soll ein tiefgehendes Verständnis für die Problematik von absichtlicher oder versehentlicher Diskriminierung im Bereich ML – und deren potenziellen Auswirkungen – vermittelt werden.
  • Insbesondere steht dabei der Aspekt der Datenqualität und QA im Fokus.
  • Auch aktuelle Ansätze zu einer möglichen Regulierung werden angesprochen und bewertet.

Speaker

 

Lars Röwekamp
Lars Röwekamp ist Gründer des IT-Beratungs- und Entwicklungsunternehmens open knowledge GmbH. Als "CIO New Technologies" analysiert er ständig neue Software- und Technologietrends. Ein besonderes Augenmerk liegt derzeit in der Einbettung von ML-basierten Prozessen und Anwendungen in die bestehende IT-Landschaft von Unternehmen. Mit seinen Kunden analysiert er Möglichkeiten – und Grenzen – der Erweiterung und Optimierung von Geschäftsprozessen auf Grundlage ML-basierter Ansätze und setzt diese bis zur Produktionsreife um.

M3-Newsletter

Sie möchten über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden