Der Call for Proposals für die Minds Mastering Machines 2025 ist gestartet. Wir freuen uns auf Eure Einreichungen!

Spagat zwischen Bias und Fairness

KI soll fair sein. Da sind wir uns alle einig. Entsprechend gilt es, eine „Voreingenommenheit“ der eigenen KI-Lösung zu vermeiden.

Leichter gesagt als getan, denn Bias kann sich an verschiedenen Stellen innerhalb des AI/ML-Lifecycles einschleichen – vom initialen Design bis hin zum produktiven Einsatz des Modells. Diese Stellen gilt es zu identifizieren und im Detail zu verstehen. Denn nicht jede Art von Voreingenommenheit ist automatisch auch böse bzw. unfair.

Die Session zeigt, wie potenzielles Auftreten von unerwünschtem Bias in der eigenen KI-Lösung aufgedeckt und vermieden werden kann.

Vorkenntnisse

Grundlegendes Verständnis für den AI-Project-Lifecycle (von der Ideation bis zum produktiven Einsatz).

Lernziele

Es soll ein Verständnis für die Abgrenzung von Bias und Fairness sowie eine Methodik zur Vermeidung von Unfairness im eigenen AI-Project-Lifecycle vermittelt werden.

Speaker

 

Lars Röwekamp
Lars Röwekamp ist Gründer der open knowledge GmbH und beschäftigt sich als „CIO New Technologies“ mit der Analyse und Bewertung neuer Software- und Technologietrends. Ein besonderer Schwerpunkt seiner Arbeit liegt derzeit auf Enterprise- und Cloud-Computing, Big Data und KI, wobei neben Design und Architekturfragen insbesondere die Real-Life-Aspekte im Fokus stehen.

M3-Newsletter

Ihr möchtet über die Minds Mastering Machines
auf dem Laufenden gehalten werden?

 

Anmelden