Seite wählen
Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Altersdiskriminierung bei Stellenausschreibungen – Urteil des ArbG Heilbronn

Das Arbeitsgericht Heilbronn hat entschieden: Die Formulierung „Digital Native“ in einer Stellenausschreibung kann als Indiz für eine Altersdiskriminierung gewertet werden. In einem aktuellen Fall sprach das Gericht einem abgelehnten Bewerber eine Entschädigung in Höhe von 7.500 Euro zu.

Der Fall im Überblick

Ein 1972 geborener Bewerber hatte sich auf eine ausgeschriebene Stelle als Manager für Unternehmenskommunikation beworben. Die Anzeige enthielt den Passus „Als Digital Native fühlst du dich in der Welt der Social Media … zu Hause“. Nach einer Absage klagte der Bewerber auf Entschädigung, da er sich wegen seines Alters benachteiligt sah.

Gericht bestätigt Diskriminierung

Das ArbG Heilbronn sah die Formulierung als Hinweis darauf, dass vorrangig jüngere Bewerber angesprochen wurden. Der Begriff „Digital Native“ wird meist für Personen verwendet, die mit digitalen Medien aufgewachsen sind – typischerweise ab Jahrgang 1980. Dies könne ältere Bewerber faktisch ausschließen.

Entscheidung und Konsequenzen

Das Gericht erkannte eine Altersdiskriminierung und sprach dem Kläger eine Entschädigung zu, allerdings nicht in der geforderten Höhe von 37.500 Euro, sondern begrenzt auf 1,5 Monatsgehälter. Es stellte fest, dass Stellenausschreibungen neutral formuliert sein müssen, um Diskriminierungen zu vermeiden.

Was bedeutet das für Unternehmen?

Arbeitgeber sollten ihre Stellenausschreibungen genau prüfen, um unbewusste Diskriminierungen zu vermeiden. Begrifflichkeiten wie „junges Team“, „Berufsanfänger“ oder eben „Digital Native“ können problematisch sein. Eine diskriminierungsfreie Sprache schützt Unternehmen vor Klagen – und sorgt für Chancengleichheit auf dem Arbeitsmarkt.

Ein kleiner Fehler in der Formulierung kann also teure Konsequenzen haben – da hilft es, vorher einmal mehr nachzudenken.

 

Cookie Consent mit Real Cookie Banner