Die Künstliche Intelligenz kann Menschen diskriminieren.
Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass bei der Verwendung von KI Diskriminierungen erfolgen können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen hat und einer Tierart zugeordnete.
Wie kann das sein?
Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Quelle für eine Diskriminierung in sich. Beispielsweise wird bei einem Lebenslauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied gegenüber kinderlosen Personen kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen.
Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung?
Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen vermeiden. Dies deckt sich aber nun überhaupt nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte.
Lösung der „Subobjektivität“ überhaupt möglich?
Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird. Die KI könnte, ohne weitere Angaben wie sie rechnen soll, eine Vielzahl von Personen anhand ihrer subjektive Merkmale objektiv vergleichen und so eine „optimale“ Person ermitteln, die dem Mainstream aus allen am Vergleich teilnehmenden Personen entspricht. Merkmale von Minderheiten würden nicht oder negativ berücksichtigt werden. Eine Diskriminierung würde vorliegen.