Seite wählen
BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Das Bundesarbeitsgericht (BAG) entschied am 28. Januar 2025 (Az. 1 AZR 33/24), dass ein Arbeitgeber nicht verpflichtet ist, der tarifzuständigen Gewerkschaft die dienstlichen E-Mail-Adressen seiner Beschäftigten zum Zweck der Mitgliederwerbung mitzuteilen.

Die klagende Gewerkschaft wollte im Betrieb der Beklagten digitale Werbemaßnahmen durchführen und forderte hierfür unter anderem die Übermittlung der E-Mail-Adressen aller Arbeitnehmer, Zugang zum konzernweiten Netzwerk sowie eine Verlinkung ihrer Webseite im Intranet der Beklagten.

Wie bereits die Vorinstanz, das Landesarbeitsgericht Nürnberg (Urteil vom 26. September 2023 – 7 Sa 344/22), wies auch das BAG die Klage ab. Es stellte fest, dass die Koalitionsbetätigungsfreiheit nach Art. 9 Abs. 3 GG nicht dazu verpflichtet, der Gewerkschaft einen direkten Zugang zu den internen digitalen Kommunikationsmitteln des Unternehmens zu gewähren. Eine solche Forderung kollidiere mit den Grundrechten des Arbeitgebers und der Arbeitnehmer, insbesondere mit deren Datenschutzrechten.

Die Entscheidung betont, dass Gewerkschaften die Möglichkeit haben, Arbeitnehmer vor Ort nach ihrer betrieblichen E-Mail-Adresse zu fragen, um so ihre Werbemaßnahmen durchzuführen.

Cookie Consent mit Real Cookie Banner