Artificial Ethics? Moralische Entscheidungen durch KI und Machine Learning.
Wie trifft man eine Entscheidung, die anerkannten moralischen Normen entspricht und somit als moralisch „richtig“ empfunden wird? Durch kulturelle und soziale Einflüsse entwickeln Menschen die Fähigkeit, diese Entscheidungen zu treffen. Wie aber können Maschinen zu einer „richtigen“ – also den moralischen Normen entsprechenden – Entscheidung kommen?
Das Beispiel autonom fahrender Autos, die Entscheidungen über Leben oder Tod treffen, wurde bereits ausführlich diskutiert. Allerdings sind die Auswirkungen viel weitreichender, und die in Maschinen ablaufenden Prozesse, die zu einer Entscheidung führen, bleiben den meisten verborgen. Daraus ergeben sich unterschiedliche Fragen:
* Kann eine Künstliche Intelligenz überhaupt Entscheidungen treffen, die den moralisch anerkannten Normen entsprechen, wenn diese schon auf der Ebene der Individuen unterschiedlich ausfallen können?
* Wie kann man die Diskussion bezüglich Moral von Künstlicher Intelligenz und die – berechtigte oder nicht berechtigte – Angst vor selbstentscheidenden Maschinen in die Überlegungen von Unternehmen und Softwareentwicklern miteinbeziehen?
* Welche Verantwortung übernehmen Unternehmen und Softwareentwickler im Bereich Künstliche Intelligenz und Machine Learning für die Auswirkungen der Entwicklung?
Vorkenntnisse
Keine Vorkenntnisse erforderlich. Generelles Interesse an moralischen Fragen im Bereich künstliche Intelligenz und Machine Learning sind vorteilhaft.
Lernziele
Ziel ist, die Auswirkungen der aktuellen Diskussion für die Entwicklung von Künstlicher Intelligenz darzustellen. Welche Ansprüche das an die Entwicklung von Künstlicher Intelligenz und Machine-Learning-Algorithmen stellt und wie bereits im Design moralische Aspekte berücksichtigt werden können, wird anhand von Beispielen gezeigt. Das Verständnis der Problematik und die Entwicklung einer groben Richtlinie basierend aus Beispielen stehen daher im Vordergrund.