Technikakzeptanz

Künstliche Intelligenz: Maschinen mit Sinn für Gerechtigkeit

Nur wenn Künstliche Intelligenz (KI) Fairness ebenso interpretiert und umsetzt wie Menschen, wird sie auf breite Akzeptanz stoßen. Deshalb untersuchen Wissenschaftler des Max-Planck-Instituts für Intelligente Systeme in Tübingen Daten auf ihren kausalen Zusammenhang.

Der Sinn für Gerechtigkeit ist tief in einem Menschen verwurzelt - und oft schon von Kindesbeinen an. Er ist ein wesentlicher Teil seiner Moralvorstellungen, seines Wertegerüstes. Der Anspruch und das Vertrauen darauf, fair behandelt zu werden, bildet die Basis für ein friedliches Zusammenleben in einer Gesellschaft.

Nur faire Entscheidungen einer KI werden vom Menschen akzeptiert

Im Zeitalter der Digitalisierung entsteht deshalb die Notwendigkeit, dass selbstlernende Maschinen, die dem Menschen zuarbeiten, fair handeln. Nur wenn Künstliche Intelligenz Fairness ebenso interpretiert und umsetzt wie der Mensch, werden ihre Entscheidungen akzeptiert. Entscheidungen durch selbstlernende Algorithmen, denen möglicherweise rassistische oder sexistische Merkmale unterliegen, sind in der Gesellschaft nicht akzeptabel. Gleichzeitig rückt mit zunehmender Tragweite des Einsatzes von künstlicher Intelligenz die Transparenz im Bereich maschinelles Lernen zunehmend in den Fokus.

„Als intelligente, selbstlernende Maschinen nur in der Industrie eingesetzt wurden, da machte sich keiner Gedanken, ob ein Computer fair handelt. Es wurde nicht darauf geachtet, ob man moralische oder ethische Anforderungen an Machine Learning stellen sollte“, sagt Niki Kilbertus, Wissenschaftler am Max-Planck-Institut für Intelligente Systeme in Tübingen. „Doch spätestens seit die gleichen Algorithmen Anwendung in einem sozialen Kontext finden muss man sich die Frage stellen: Sind diese selbstlernenden Maschinen fair oder diskriminieren sie, wenn auch ungewollt?“ Anstatt also wertfreie Entscheidungen zu fällen, tut künstliche Intelligenz manchmal genau das Gegenteil: Sie diskriminiert aufgrund der Daten, mit der sie gefüttert wird.

„Diskriminierung vermeiden durch kausale Schlussfolgerungen“ heißt die Publikation, die Kilbertus zusammen mit Mateo Rojas-Carulla, Giambattista Parascandolo, Moritz Hardt, Dominik Janzing und Bernhard Schölkopf, Direktor der Abteilung für Empirische Inferenz am MPI für Intelligente Systeme, unlängst veröffentlicht hat. Die Veröffentlichung soll als Fingerzeig bei der Anwendung maschinellen Lernens dienen, bei Faktoren, die Menschen diskriminieren könnten, zweimal hinzusehen und nach dem „warum“ zu fragen. Diskriminiert werden könnten Menschen beispielsweise aufgrund ihrer Hautfarbe, ihres Geschlechts, ihrer Religion oder ihrer sexuellen Orientierung.

Stets hinterfragen, wie Daten zustande kommen

Doch bereits bei einer Postleitzahl, die ein potentieller Kreditnehmer angeben muss, könnte ein Lernalgorithmus diskriminierend gegen eine einzelne Person oder eine bestimmte demographische Gruppe wirken. So könnte eine Bank keine Kredite an Menschen mit einer bestimmten Postleitzahl mehr vergeben, weil der selbstlernende Computer zu dem Schluss kommt, dass in diesem Stadtteil die Ausfallquote höher ist als anderswo. „Würde man den Algorithmus machen lassen, würde der Antragsteller den Kredit vielleicht nicht bekommen, auch wenn er eine hohe Kreditwürdigkeit hat“, erklärt Kilbertus.

Bitte beachten Sie

Die Beiträge in der Rubrik "Trends und Innovationen" sind Inhalte unseres Medienpartners Vogel Business Media. Sie spiegeln nicht unbedingt die Meinung von DATEV wider.