Seite wählen
BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Das Bundesarbeitsgericht (BAG) entschied am 28. Januar 2025 (Az. 1 AZR 33/24), dass ein Arbeitgeber nicht verpflichtet ist, der tarifzuständigen Gewerkschaft die dienstlichen E-Mail-Adressen seiner Beschäftigten zum Zweck der Mitgliederwerbung mitzuteilen.

Die klagende Gewerkschaft wollte im Betrieb der Beklagten digitale Werbemaßnahmen durchführen und forderte hierfür unter anderem die Übermittlung der E-Mail-Adressen aller Arbeitnehmer, Zugang zum konzernweiten Netzwerk sowie eine Verlinkung ihrer Webseite im Intranet der Beklagten.

Wie bereits die Vorinstanz, das Landesarbeitsgericht Nürnberg (Urteil vom 26. September 2023 – 7 Sa 344/22), wies auch das BAG die Klage ab. Es stellte fest, dass die Koalitionsbetätigungsfreiheit nach Art. 9 Abs. 3 GG nicht dazu verpflichtet, der Gewerkschaft einen direkten Zugang zu den internen digitalen Kommunikationsmitteln des Unternehmens zu gewähren. Eine solche Forderung kollidiere mit den Grundrechten des Arbeitgebers und der Arbeitnehmer, insbesondere mit deren Datenschutzrechten.

Die Entscheidung betont, dass Gewerkschaften die Möglichkeit haben, Arbeitnehmer vor Ort nach ihrer betrieblichen E-Mail-Adresse zu fragen, um so ihre Werbemaßnahmen durchzuführen.

Annahmeverzugsvergütung

Annahmeverzugsvergütung

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Annahmeverzugsvergütung

 

Das Landesarbeitsgericht (LAG) Niedersachsen hat mit Urteil vom 19.11.2024 (Az. 11 Sa 827/23) entschieden, dass ein Arbeitgeber die Beweislast trägt, wenn er einem gekündigten Arbeitnehmer böswilliges Unterlassen anderweitigen Verdienstes vorwirft. Die Vorinstanz war das Arbeitsgericht Nienburg (Az. 2 Ca 122/23).

Der Fall

Nach der fristlosen Kündigung des Klägers machte dieser Ansprüche auf Annahmeverzugsvergütung geltend. Der Arbeitgeber argumentierte, der Kläger habe es unterlassen, sich um eine neue Beschäftigung zu bemühen, und sei seiner Pflicht zur Arbeitslosmeldung nicht rechtzeitig nachgekommen.

Entscheidung des Gerichts

Das LAG stellte klar, dass allein eine verspätete Arbeitslosmeldung keine Vermutung dafür begründet, dass bei rechtzeitiger Meldung eine zumutbare Stelle hätte vermittelt werden können. Vielmehr muss der Arbeitgeber konkret nachweisen, dass es tatsächlich geeignete Stellen gab, auf die sich der Arbeitnehmer hätte bewerben können.

Auch wenn sich der Arbeitnehmer nicht aktiv um eine neue Stelle bemüht, entbindet dies den Arbeitgeber nicht von seiner Darlegungslast. Die bloße Behauptung, es habe Arbeitsangebote gegeben, reicht nicht aus.

Fazit

Das Urteil stärkt die Rechte von Arbeitnehmern im Annahmeverzug. Arbeitgeber müssen sorgfältig nachweisen, dass dem Arbeitnehmer eine zumutbare Alternative zur Verfügung stand. Andernfalls bleibt der Anspruch auf Annahmeverzugsvergütung bestehen. Zudem zeigt die Entscheidung, dass Arbeitgeber aktiv handeln müssen, um den Annahmeverzug zu beenden. Kritik über die Untätigkeit des Arbeitnehmers allein genügt nicht.

Altersdiskriminierung bei Stellenausschreibungen

Altersdiskriminierung bei Stellenausschreibungen

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Altersdiskriminierung bei Stellenausschreibungen – Urteil des ArbG Heilbronn

Das Arbeitsgericht Heilbronn hat entschieden: Die Formulierung „Digital Native“ in einer Stellenausschreibung kann als Indiz für eine Altersdiskriminierung gewertet werden. In einem aktuellen Fall sprach das Gericht einem abgelehnten Bewerber eine Entschädigung in Höhe von 7.500 Euro zu.

Der Fall im Überblick

Ein 1972 geborener Bewerber hatte sich auf eine ausgeschriebene Stelle als Manager für Unternehmenskommunikation beworben. Die Anzeige enthielt den Passus „Als Digital Native fühlst du dich in der Welt der Social Media … zu Hause“. Nach einer Absage klagte der Bewerber auf Entschädigung, da er sich wegen seines Alters benachteiligt sah.

Gericht bestätigt Diskriminierung

Das ArbG Heilbronn sah die Formulierung als Hinweis darauf, dass vorrangig jüngere Bewerber angesprochen wurden. Der Begriff „Digital Native“ wird meist für Personen verwendet, die mit digitalen Medien aufgewachsen sind – typischerweise ab Jahrgang 1980. Dies könne ältere Bewerber faktisch ausschließen.

Entscheidung und Konsequenzen

Das Gericht erkannte eine Altersdiskriminierung und sprach dem Kläger eine Entschädigung zu, allerdings nicht in der geforderten Höhe von 37.500 Euro, sondern begrenzt auf 1,5 Monatsgehälter. Es stellte fest, dass Stellenausschreibungen neutral formuliert sein müssen, um Diskriminierungen zu vermeiden.

Was bedeutet das für Unternehmen?

Arbeitgeber sollten ihre Stellenausschreibungen genau prüfen, um unbewusste Diskriminierungen zu vermeiden. Begrifflichkeiten wie „junges Team“, „Berufsanfänger“ oder eben „Digital Native“ können problematisch sein. Eine diskriminierungsfreie Sprache schützt Unternehmen vor Klagen – und sorgt für Chancengleichheit auf dem Arbeitsmarkt.

Ein kleiner Fehler in der Formulierung kann also teure Konsequenzen haben – da hilft es, vorher einmal mehr nachzudenken.

 

Freistellung

Freistellung

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Freistellung – Was ist eine Freistellung im Arbeitsrecht?

Die sogenannte Freistellung im Arbeitsrecht bedeutet, dass der Arbeitgeber bis zum Ablauf der Kündigungsfrist darauf verzichtet, den Arbeitnehmer weiterhin arbeiten zu lassen, ihm aber bis zum Ende des Arbeitsverhältnisses weiterhin den Lohn zahlt. Das bedeutet, dass der Arbeitnehmer von seiner Arbeitsleistung freigestellt ist und trotzdem sein Gehalt erhält. In der Praxis kommen solche Freistellungen häufig vor, da nach einer Kündigung das zwischenmenschliche Verhältnis in den meisten Fällen stark belastet ist. Oft möchten beide Seiten den Kontakt vermeiden. Zudem hat der Arbeitgeber ein Interesse daran, während der Freistellung den noch bestehenden Urlaubsanspruch des Arbeitnehmers anzurechnen.

Was, wenn der Arbeitnehmer doch arbeiten will?

Es kann jedoch vorkommen, dass der Arbeitnehmer weiterhin arbeiten möchte. Dies kann verschiedene Gründe haben. Beispielsweise könnte er seine Kollegen bis zum Abschluss eines Projekts nicht im Stich lassen oder sich von seinen bisherigen Geschäftspartnern angemessen verabschieden wollen. Ebenso könnte er es bevorzugen, seinen Urlaub nicht zu nehmen, sondern sich diesen stattdessen auszahlen zu lassen, um sich nach dem Ende des Arbeitsverhältnisses eine größere Reise leisten zu können. Die Gründe für den Wunsch, bis zum Vertragsende weiterzuarbeiten, können sehr unterschiedlich sein.

Geregelt oder nicht geregelt – die erste Frage!

Ein Blick in den Arbeitsvertrag bringt erste Klarheit. Entweder ist eine Freistellung bereits vertraglich vereinbart oder nicht. Falls eine korrekt formulierte Freistellungsklausel enthalten ist, kann der Arbeitgeber den Arbeitnehmer freistellen und während dieser Zeit den verbleibenden Urlaub sowie das Guthaben auf dem Arbeitszeitkonto anrechnen. Ist keine Klausel vorhanden, kann der Arbeitnehmer seinen Beschäftigungsanspruch durchsetzen. Dieser Anspruch wurde bereits 1955 vom Bundesarbeitsgericht bestätigt (BAG, Urteil vom 10.11.1955 – 2 AZR 591/54) und aus dem verfassungsrechtlichen Schutz der Persönlichkeit gemäß Art. 1 und 2 GG abgeleitet. Danach hat der Arbeitnehmer ein Recht auf eine Beschäftigung im Rahmen seines Arbeitsvertrags.

Nichts geregelt – Stillstand?

Hat der Arbeitnehmer im Arbeitsvertrag nicht ausdrücklich auf seinen Beschäftigungsanspruch verzichtet, bedeutet dies nicht, dass Arbeitgeber und Arbeitnehmer keine Regelung mehr treffen können. Beide Parteien können sich weiterhin einvernehmlich auf eine individuelle Regelung zur Freistellung einigen.

Erwerb von zusätzlichem Urlaub während der Freistellung?

Während der Zeit der Freistellung erwirbt der Arbeitnehmer keinen neuen Urlaubsanspruch. Dies ergibt sich daraus, dass der Urlaubsanspruch in direktem Zusammenhang mit der Erbringung der Arbeitsleistung steht. Da die Arbeitspflicht durch die Freistellung vollständig entfällt, kann für den Zeitraum der Freistellung kein zusätzlicher Urlaubsanspruch entstehen.

Der Europäische Gerichtshof hat festgestellt: Beamte sind „Beschäftigte“ im Sinne des § 88 DS-GVO.

Der Europäische Gerichtshof hat festgestellt: Beamte sind „Beschäftigte“ im Sinne des § 88 DS-GVO.

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Der Europäische Gerichtshof hat festgestellt:

Beamte sind „Beschäftigte“ im Sinne des § 88 DS-GVO.

 

KURZ und knapp.

 

88 Abs.1 DS-GVO regelt die Verarbeitung von Daten im Zusammenhang mit einem „Beschäftigungsverhältnis“. Der EuGH hat in seiner Entscheidung vom 30. März 2023 (Az. C-34/21) klargestellt, dass das Wort „Beschäftigungsverhältnis“ auch ein beamtenrechtliches Dienstverhältnis mit umfasst, weil:

Die DS-GVO den Begriff des „Beschäftigten“ und das in § 88 DSG-VO verwendete Wort „Beschäftigtenkontext“ weder definiert noch auf nationale Gesetze verweist, sodass Beamte nicht ausdrücklich ausgeschlossen sind.

Beschäftigte im üblichen Sinn ihre Arbeit in einem Unterordnungsverhältniss zu ihrem Arbeitgeber und daher unter dessen Kontrolle erledigen.

Das wesentliche Merkmal des „Beschäftigungskontexts“ darin besteht, dass eine Person während einer bestimmten Zeit für eine andere nach deren Weisung Leistungen erbringt, für die sie als Gegenleistung eine Vergütung erhält.

Somit schlussfolgert der EuGH, dass § 88 DS-GVO mit dem Wort „Beschäftigungskontext“ Beschäftigungsverhältnisse sowohl im privaten wie auch im öffentlichen Sektor umfasst.

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Rückzahlung von Fortbildungskosten

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Arbeitgeberfinanzierte Fortbildung und Rückzahlungsklauseln – Ein Urteil des BAG

Es ist nicht selten, dass ein Arbeitgeber einem Arbeitnehmer die Fortbildung finanziert und ihn dabei finanziell unterstützt. Das Bundesarbeitsgericht (BAG) hat am 25. April 2023 über einen solchen Fall unter dem Aktenzeichen 9 AZR 187/22 entschieden.

Was war passiert?

Welcher konkrete Sachverhalt dem Urteil zugrunde liegt, ist nicht bekannt. Es könnte sich jedoch wie folgt zugetragen haben:

Maike Tasten ist seit einigen Jahren bei Bernd Buch als Buchhalterin angestellt. Möglicherweise kamen die beiden bei einem Kaffee in der Mittagspause auf die Idee, dass Maike bereits über umfassendes Wissen im Bereich der Steuerberatung verfügt und die Steuerberaterprüfung problemlos bestehen könnte. Bernd hatte bereits einige Buchhalter bei der Vorbereitung auf das anspruchsvolle Steuerberaterexamen unterstützt.

Maike fühlt sich durch das Lob geschmeichelt und erklärt sich bereit, die Prüfung abzulegen. Wenig später schließen beide einen Vertrag, den Bernd regelmäßig für solche Fälle verwendet – er ersetzt lediglich den Namen und den Förderbetrag im Vordruck. Der Vertrag enthält eine Rückzahlungsverpflichtung für den Fall, dass Maike:

  • innerhalb von 24 Monaten nach bestandener Prüfung das Unternehmen verlässt,
  • innerhalb von 24 Monaten nach nicht bestandener Prüfung das Unternehmen verlässt oder
  • die Prüfung wiederholt nicht ablegt.

Zudem enthält der Vertrag eine Härtefallregelung, nach der Maike im Falle einer dauerhaften Erkrankung oder der Pflege von Angehörigen für die Dauer der Verhinderung von der Rückzahlungspflicht befreit ist.

Beide unterschreiben den Vertrag, und Bernd übernimmt daraufhin fast 5.000 Euro an Ausbildungskosten. Allerdings tritt Maike nie zur Prüfung an und arbeitet inzwischen nicht mehr für Bernd. Dieser fordert nun sein Geld zurück und verklagt Maike auf Rückzahlung.

Die Entscheidung des BAG

Der Rechtsstreit begann 2021 vor dem Arbeitsgericht Lingen und wurde nun in letzter Instanz vom Bundesarbeitsgericht entschieden. Das BAG entschied, dass Maike die gezahlte Summe nicht zurückerstatten muss.

Der Grund: Bernd hatte mit der Vereinbarung sogenannte Allgemeine Geschäftsbedingungen (AGB) verwendet, die einer besonderen rechtlichen Prüfung unterliegen. Werden Vertragsbedingungen von einer Partei – in diesem Fall Bernd – für mehr als drei Vertragsabschlüsse genutzt, gelten sie als vorformulierte Vertragsbedingungen.

Sobald die „AGB-Tür“ geöffnet ist, muss nach § 305c Abs. 2, §§ 306, 307 bis 309 BGB geprüft werden, ob die Klauseln den anderen Vertragspartner unangemessen benachteiligen. Genau das hat das BAG getan und festgestellt, dass die Rückzahlungsklausel eine unangemessene Benachteiligung darstellt.

Das Gericht argumentiert, dass eine solche Klausel einen erheblichen Druck erzeugen kann, im bestehenden Arbeitsverhältnis zu verbleiben, und damit das Grundrecht auf freie Wahl des Arbeitsplatzes (Art. 12 Abs. 1 Satz 1 GG) einschränkt. Eine Rückzahlungspflicht muss daher einem berechtigten und schutzwürdigen Interesse des Arbeitgebers dienen und zugleich die möglichen Nachteile für den Arbeitnehmer angemessen ausgleichen.

Zudem ist zu berücksichtigen, dass die Rückzahlungspflicht nicht über die wirtschaftlichen Verhältnisse des Arbeitnehmers hinausgehen darf. Ein Arbeitnehmer mit einem durchschnittlichen Nettoeinkommen von 1.400 Euro kann beispielsweise nicht dazu verpflichtet werden, Ausbildungskosten in Höhe von 20.000 Euro auf einmal zurückzuzahlen.

Die Wertung der Interessen beider Parteien – ein fiktives Beispiel

Bernd ist verärgert. Eigentlich wollte er Maike nur unterstützen, doch nun bleibt er auf den Kosten sitzen, weil er ein standardisiertes Vertragsformular verwendet hat. „Maike ist fein raus, und am Ende ist der Unternehmer immer der Dumme!“, denkt er sich.

Maike wiederum hat sich entschieden, doch keine Steuerberaterin zu werden. Nach einer intensiven Selbstreflexion kam sie zu dem Schluss, dass sie lieber einen Beruf ergreifen möchte, bei dem sie direkt mit Menschen arbeitet. Sie absolviert nun eine Ausbildung zur Pflegefachkraft.

Die Kündigung bei Bernd fiel ihr schwer, da sie sich wegen der Ausbildungsvereinbarung und der möglichen Rückzahlung Sorgen machte. Erst die finanzielle Unterstützung ihrer Eltern ermutigte sie, diesen Schritt zu wagen.

Betrachtet man die Interessen beider Parteien, wird deutlich, dass Arbeitgebern viele Pflichten auferlegt werden. Sie tragen eine hohe Verantwortung für ihr Unternehmen und ihre Mitarbeiter. Bernd hat sich bewusst für die Selbstständigkeit entschieden und nimmt die damit verbundenen Herausforderungen in Kauf.

Maike hingegen bevorzugt die Sicherheit eines Angestelltenverhältnisses. Sie schätzt die Planbarkeit eines festen Gehalts und nimmt dafür in Kauf, Weisungen eines Arbeitgebers zu befolgen, feste Arbeitszeiten einzuhalten und Urlaub nach Vorgabe zu nehmen.

Zwischen den beiden besteht nicht nur ein arbeitsrechtliches Verhältnis – mit Bernd als weisungsbefugtem Arbeitgeber und Maike als weisungsgebundener Arbeitnehmerin –, sondern auch ein zwischenmenschliches Machtgefälle. Damit dieses Machtverhältnis ausgewogen bleibt, sind Entscheidungen wie die des BAG erforderlich.

Hätte Maike nicht auf die finanzielle Unterstützung ihrer Eltern zählen können, wäre sie möglicherweise gezwungen gewesen, die Ausbildung abzuschließen und noch zwei Jahre bei Bernd zu arbeiten – ungeachtet ihrer eigentlichen Wünsche.

Natürlich könnte man einwenden, dass sie sich der Rückzahlungsverpflichtung bewusst gewesen sein muss. Doch was wäre gewesen, wenn sie von Anfang an abgelehnt hätte? Hätte Bernd ihr dann möglicherweise gekündigt?

Das Arbeitsrecht und die Rechtsprechung des BAG zielen darauf ab, durch einheitliche Kriterien eine gerechte Balance zwischen den Interessen von Arbeitnehmern und Arbeitgebern herzustellen. Der Wermutstropfen liegt in der Tat oft beim Arbeitgeber, da er die Verantwortung trägt.

 

 

Datenschutzverstöße von Beschäftigten

Datenschutzverstöße von Beschäftigten

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

 

Wer haftet eigentlich wie, wenn der Mitarbeiter nicht datenschutzkonform handelt? Ist prinzipiell das Unternehmen in der Haftung oder trifft es den Mitarbeiter? Diese Haftungsfrage lässt sich bei einer differenzierten Betrachtung beantworten.

Nutzung der Daten fällt völlig aus dem Rahmen

Benutzt der Mitarbeiter die Daten widerrechtlich für eigene private Zwecke, dann fällt die Handlung des Beschäftigten so sehr aus dem Rahmen, dass er im Sinne des Datenschutzrechtes allein für sein Handeln als Verantwortlicher gerade zu stehen hat. Dies ist damit zu begründen, dass der Mitarbeiter die persönlichen Daten anderer so zweckentfremdet und ausufernd nutzt, dass ein sog. Mitarbeiterexzess gegeben ist.

Ein solcher liegt beispielsweise vor bei der:

  • Nutzung von Telefonnummern zum Aufbau privater Kontakte
  • Abfragen von Kontoinformationen zur Nutzung in einer privaten zivilrechtlichen Streitigkeit.
  • Nutzung von polizeilichen Auskunftssystemen für die eigene private politische Vereinsarbeit.

Das Unternehmen haftet in diesem Fall folglich nicht. So sieht es auch die Entschließung der 97. Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder vom 3. April 2019. Aber die Ausnahme bestätigt die Regel: Hat die Geschäftsleitung von dem Verhalten des Mitarbeiters Kenntnis und duldet dieses, so sitzen beide im selben Boot und haften gemeinsam.

Mitarbeiter handelt innerhalb der unternehmerischen Tätigkeit nicht datenschutzkonform

Handelt ein Mitarbeiter innerhalb der unternehmerischen Tätigkeit nicht datenschutzkonform, wird dessen Handlung dem Unternehmen als Verantwortlicher im Sinne des Datenschutzrechtes zugerechnet. Dies bedeutet, dass das Unternehmen haftet. Ob das Unternehmen den Beschäftigen in Regress nehmen kann, wird im Einzelfall nach den Grundsätzen des sog. innerbetrieblichen Schadensausgleichs festzustellen sein. Der Grad der Haftung hängt vom Grad des Verschuldens des Beschäftigten ab. Bei einer fahrlässigen Datenschutzverletzung hat das Unternehmen in der Regel keinen Anspruch auf Ausgleich, da der Beschäftigte für das Unternehmen und in dessen Interesse gearbeitet hat.

Schadenersatz des Betroffenen

Derjenige, dessen persönliche Daten widerrechtlich verwendet wurden, hat gegen den Verantwortlichen einen Auskunftsanspruch und Schadenersatzanspruch.

Bußgeld durch die Behörde

Die Frage, ob der Mitarbeiter im Exzess oder das Unternehmen im Falle eines nicht exzessiven Datenschutzverstoßes eine Ordnungswidrigkeit begangen hat und hierfür haftet, ist derzeit in der Rechtsprechung und Literatur strittig. Die einen sind der Meinung, dass aus der Verordnungsbegründung (Erwägungsgründen) der DS-GVO der kartellrechtliche sog. funktionale Unternehmensbegriff anzuwenden ist. Die anderen sprechen sich gegen eine Anwendung dieses Begriffs aus. Der funktionale Unternehmensbegriff wird verwendet, um möglichst viele wirtschaftliche Gebilde in den Anwendungsbereich des Kartellrechts einzuordnen. Es geht also lediglich um die Feststellung, dass ein Zusammenschluss von Personen stattfindet und die wirtschaftliche Tätigkeit irgendwie funktioniert, egal welche Rechtsform er hat und wie er sich finanziert. Zusätzlich hierzu sieht die DS-GVO vor, dass grundsätzlich dem EU-Recht der Vorrang vor dem nationalen Recht der Mitgliedsstaaten hat.

Hierin liegt das Dilemma, denn die Anwendung des funktionalen Unternehmensbegriffs lässt sich mit dem deutschen und im Übrigen auch mit dem österreichischen Ordnungswidrigkeitenrecht nicht vereinbaren. Eine juristische Person, also das Unternehmen als GmbH, UG oder AG, kann nur eingeschränkt Täter im Sinne des Ordnungswidrigkeitengesetzes sein. Erforderlich ist, dass ein Fehlverhalten der vertretungsberechtigten Organe, in der Regel der Geschäftsführung, nachgewiesen wird.

So ist es auch nicht verwunderlich, dass der österreichische Verwaltungsgerichtshof im Jahr 2020 der vorrangigen Anwendung von EU-Recht eine Absage erteilt hat (ÖVwGH, Erkenntnis vom 12.5.2020 – Ro 2019/04/0229). In Deutschland ist die Rechtsprechung uneins. Das LG Bonn (Urteil v. 11.11.2020 – 29 OWi 1/20) hat eine unmittelbare Haftung angenommen. Das LG Berlin hat ebenso wie der ÖWwGH eine unmittelbare Haftung des Unternehmens verneint (LG Berlin, Beschluss vom 18.2.2021, Az. 526 OWi LG 212 Js-OWi 1/20 (1/20). Gegen den Beschluss des LG Berlin wurde Beschwerde eingelegt. Es bleibt abzuwarten, wie das Kammergericht Berlin entscheidet und ob es zu einer Vorlage zum EuGH kommt.

Fakt ist, dass es für Unternehmen derzeit keine Rechtssicherheit gibt, ob eine Haftung besteht oder nicht. Unklar sind auch die Maßstäbe für eine zurechenbare Verantwortlichkeit. Fakt ist auch, dass es gar nicht so weit hätte kommen dürfen. Es ist auch bei EU-Verordnungen ein Mindestmaß an sprachlicher Klarheit zu erwarten und nicht erklärbar, weshalb nicht direkt in der Verordnung eine eindeutige Regelung bezüglich der unmittelbaren Verbandshaftung von Unternehmen erfolgt ist.

 

 

 

 

 

 

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Gleichberechtigung in Sachen Mütze

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

 

Das Bundesarbeitsgericht hat im Jahr 2014 die Gleichberechtigung für das Tragen von Pilotinnen-Mütze hergestellt.

Zum Sachverhalt: Eine deutsche Fluggesellschaft schloss mit dem Betriebsrat eine Betriebsvereinbarung über die Dienstkleidung des Personals. Darin wurden die Uniformteile für Damen und für Herren getrennt minutiös geregelt. Während es den Piloten zwingend vorgeschrieben war die Pilotenmütze, in der Öffentlichkeit zu tragen, wurde es den Pilotinnen freigestellt, ob sie ihre Pilotenmütze in der Öffentlichkeit tragen wollen oder nicht. Gegen diese Regelung klagte ein Pilot. Er hatte seine Cockpitmütze nicht bei sich geführt und wurde deswegen von einem Flug abgesetzt. Er berief sich auf die Unwirksamkeit der Tragepflicht, weil diese ihn wegen seines Geschlechts diskriminiere.

Nach der Vorinstanz, dem Landesarbeitsgericht Köln, lag keine Ungleichbehandlung vor.

Das Landesarbeitsgericht Köln (Az. 5 Sa 549/11) hatte entschieden, dass die Tragepflicht für Piloten nicht gegen das Benachteiligungsverbot des § 7 Abs.1, Abs. 5 iVm § 1 AGG verstößt. Piloten werden gegenüber dem anderen Geschlecht wegen der Tragepflicht nicht herabgesetzt. Der Pilot würde durch die Verpflichtung zum Tragen der Mütze nicht wegen seines Geschlechts benachteiligt, da die Betriebsvereinbarung an mehreren Stellen zwischen den Geschlechtern differenziere wie beispielsweise zwischen Blusen mit Accessoires für Damen und Hemden mit Krawatte für Herren.

Das BAG stellt Ungleichbehandlung fest.

Das Bundesarbeitsgericht (1. Senat, Urteil vom 30.09.2014, Az. 1 AZR 1083/12) bejahte die Ungleichbehandlung. Es handelt sich bei der durch die Betriebsvereinbarung vorgenommenen Gruppenbildung zwischen dem männlichen und weiblichen Personal um eine Regelung, die gegen das Gleichbehandlungsgebot des § 75 BetrVG verstößt. Die nur für Piloten geltende Tragepflicht der Mütze in der Öffentlichkeit ist nicht gerechtfertigt. Dies ergebe sich schon daraus, dass nach einer Regelung der strittigen Betriebsvereinbarung über die Gestaltung der Frisur von Pilotinnen die Frisur dem Tragen der Mütze nicht entgegenstehe. Danach sollten Pilotinnen ihre Frisur in „Klassik und Eleganz“ dem Hut anpassen. Folglich gab es keinerlei sachliche Gründe für eine unterschiedliche Behandlung der Geschlechter.

Chapeau!

 

Betriebsvereinbarung über Beschäftigtendatenschutz

Betriebsvereinbarung über Beschäftigtendatenschutz

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Was ist eine Betriebsvereinbarung?

Eine Betriebsvereinbarung ist die Einigung zwischen dem Betriebsrat und dem Arbeitgeber über einen Regelungsbereich im Betrieb. Sie gliedert sich in einen schuldrechtlichen Teil, der die Rechtsbeziehung zwischen dem Betriebsrat und dem Arbeitgeber regelt sowie einen normativen Teil, der verbindliche Regelungen über die Arbeitsverhältnisse der Angestellten im Unternehmen.

Eine gültige Betriebsvereinbarung liegt vor, wenn:

  • Der Betriebsrat und der Arbeitgeber eine wirksame Vereinbarung geschlossen haben.
  • Diese schriftlich niedergelegt ist (§ 77 Abs. 2 BetrVG).
  • Sie zulässige Regelungen über die Arbeitsverhältnisse enthält.

Was ist unter Beschäftigtendatenschutz zu verstehen?

Der Begriff umschreibt die Verarbeitung von personenbezogenen Daten der Beschäftigten im Rahmen des Arbeitsverhältnisses. Unter solchen personenbezogenen Daten sind alle Einzelangaben über persönliche und sachliche Verhältnisse eines bestimmten oder bestimmbaren Beschäftigten zu verstehen.

Kann in einer Betriebsvereinbarung der Beschäftigtendatenschutz geregelt werden?

Ja, die europäische Datenschutzgrundverordnung legt in § 88 Abs. DS-GVO (Datenschutz Grundverordnung) ausdrücklich fest, dass die einzelnen Mitgliedsstaaten durch Rechtsvorschriften oder Kollektivvereinbarungen den Beschäftigtendatenschutz regeln können. Die Betriebsvereinbarung ist eine Dienstvereinbarung im Sinne der europäischen Datenschutzverordnung.

Warum ist eine Betriebsvereinbarung über den Beschäftigtendatenschutz notwendig?

Durch das Bundesdatenschutzgesetz werden in § 26 BDSG (Bundesdatenschutzgesetz) Regelungen über die Datenverarbeitung zum Zwecke des Beschäftigungsverhältnisses aufgestellt. Diese sind aber nicht abschließend. Um die individuellen Gegebenheiten und Bedürfnisse im Einzelfall für einen ganz bestimmten Betrieb regeln zu können, ist eine Betriebsvereinbarung für die Rechtsklarheit über die Rechte und Ansprüche von Arbeitgeber, Betriebsrat und Arbeitnehmer äußerst ratsam. Die Betriebsvereinbarung kann beispielsweise die Videoüberwachung, den Einsatz von künstlicher Intelligenz, die Durchführung von Mitarbeiterkontrollen oder die Leistungsüberwachung regeln.

Durch die Betriebsvereinbarung können nicht nur Konkretisierungen des BDSG oder der Datenschutz zu Gunsten der Beschäftigen verbessert werden, sondern es darf durch sie auch zulasten der Beschäftigten von den Regelungen des BDSG abgewichen werden.

In einem solchen Fall muss eine sorgfältige Abwägung zwischen den Interessen des Arbeitgebers an einer bestimmten Datenverarbeitung und dem Persönlichkeitsrecht getroffen werden. Hier ist vor allem § 75 Abs.2 BetrVG zu beachten, wonach Arbeitgeber und Betriebsrat die freie Entfaltung der Persönlichkeit der im Betrieb beschäftigten Arbeitnehmer zu schützen und zu fördern haben.

 

 

 

 

 

 

 

 

Cookie Consent mit Real Cookie Banner