Freistellung

Freistellung

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Freistellung im Arbeitsrecht

 

Die sog. Freistellung im Arbeitsrecht bedeutet, dass der Arbeitgeber bis zum Ablauf der Kündigungsfrist darauf verzichtet, den Arbeitnehmer nochmals zu sehen, ihm aber bis zum Ende des Arbeitsverhältnisses weiterhin den Lohn zahlt. Dies bedeutet, dass der Arbeitnehmer von seiner Arbeitsleistung freigestellt ist und trotzdem sein Geld bekommt. Dies bedeutet, dass die Freistellung auch beinhaltet, dass der Arbeitnehmer nicht mehr an seinem Arbeitsplatz erscheint. In der Praxis passieren solche Freistellungen oft, denn wenn einmal eine Kündigung ausgesprochen ist, dann ist das zwischenmenschliche Verhältnis in der überwiegenden Anzahl der Fälle stark beschädigt. Oft will dann keiner den anderen mehr sehen. Der Arbeitgeber hat zudem ein Interesse den noch bestehenden Urlaubsanspruch während der Freistellung anzurechnen.

Was, wenn der Arbeitnehmer doch arbeiten will?

Es kann aber auch sein, dass der Arbeitnehmer weiterhin arbeiten will. Dies kann verschiedene Gründe haben. So kann man sich vorstellen, dass ein Arbeitnehmer seine Kollegen bis zu einem Projektabschluss nicht im Stich lassen will oder der Arbeitnehmer sich vielleicht auch von seinen bisherigen Geschäftspartnern angemessen verabschieden möchte. Möglich ist auch, dass der Arbeitnehmer seinen Urlaub nicht nehmen möchte und eine Urlaubsabgeltung bevorzug, um einfach nach dem Ende des Arbeitsverhältnisses sich mit der Abgeltung einen schönen Urlaub zu finanzieren. Die Gründe für den Arbeitnehmer bis zum Ende zu arbeiten können ganz verschieden sein.

Geregelt oder nicht geregelt, das ist die erste Frage!

Ein Blick in den Arbeitsvertrag verschafft die erste Erkenntnis. Entweder ist die Freistellung vereinbart oder nicht. Bei einer vorhandenen richtig formulierten Freistellungsklausel kann der Arbeitgeber freistellen und auf die Zeit der Freistellung noch bestehenden Urlaub sowie Guthaben auf ihrem Arbeitszeitkonto anrechnen. Ist keine Klausel enthalten, kann der Arbeitnehmer seinen Beschäftigungsanspruch durchsetzen. Dieser Anspruch wurde von dem Bundesarbeitsgericht bereits 1955 einem Arbeitnehmer zugestanden (BAG 10.11.1955 – 2 AZR 591/54) und aus dem Recht auf Schutz seiner Persönlichkeit nach Art. 1, 2 GG hergeleitet. Danach hat ein Arbeitnehmer ein Recht auf eine Beschäftigung mit einer Tätigkeit nach seinem Arbeitsvertrag.

Nichts geregelt: rien ne va plus?

Hat der Arbeitnehmer nicht bei Abschluss des Arbeitsvertrags seinen Verzicht auf seinen Beschäftigungsanspruch erklärt, bedeutet dies nicht, dass Arbeitgeber und Arbeitnehmer nichts mehr regeln können. Beide können sich nach wie vor einvernehmlich einigen und eine individuelle Regelung über die Freistellung treffen.

Erwerb von zusätzlichen Urlaub während der Freistellung?

Während der Zeit der Freistellung erwirbt der Arbeitnehmer keinen neuen Urlaubsanspruch. Dies folgt daraus, dass der Urlaub mit der Arbeitsleistung in direktem Zusammenhang steht. Die Arbeitspflicht ist durch die Freistellung vollständig weggefallen. Weil für den Lohn keine Arbeit geleistet werden muss, kann ein Anspruch auf Urlaub als gesetzlich geregelter Fall für Lohn ohne Arbeit nicht zusätzlich entstehen.

Der Europäische Gerichtshof hat festgestellt: Beamte sind „Beschäftigte“ im Sinne des § 88 DS-GVO.

Der Europäische Gerichtshof hat festgestellt: Beamte sind „Beschäftigte“ im Sinne des § 88 DS-GVO.

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Der Europäische Gerichtshof hat festgestellt:

Beamte sind „Beschäftigte“ im Sinne des § 88 DS-GVO.

 

KURZ und knapp.

 

88 Abs.1 DS-GVO regelt die Verarbeitung von Daten im Zusammenhang mit einem „Beschäftigungsverhältnis“. Der EuGH hat in seiner Entscheidung vom 30. März 2023 (Az. C-34/21) klargestellt, dass das Wort „Beschäftigungsverhältnis“ auch ein beamtenrechtliches Dienstverhältnis mit umfasst, weil:

Die DS-GVO den Begriff des „Beschäftigten“ und das in § 88 DSG-VO verwendete Wort „Beschäftigtenkontext“ weder definiert noch auf nationale Gesetze verweist, sodass Beamte nicht ausdrücklich ausgeschlossen sind.

Beschäftigte im üblichen Sinn ihre Arbeit in einem Unterordnungsverhältniss zu ihrem Arbeitgeber und daher unter dessen Kontrolle erledigen.

Das wesentliche Merkmal des „Beschäftigungskontexts“ darin besteht, dass eine Person während einer bestimmten Zeit für eine andere nach deren Weisung Leistungen erbringt, für die sie als Gegenleistung eine Vergütung erhält.

Somit schlussfolgert der EuGH, dass § 88 DS-GVO mit dem Wort „Beschäftigungskontext“ Beschäftigungsverhältnisse sowohl im privaten wie auch im öffentlichen Sektor umfasst.

Rückzahlung von Fortbildungskosten

Rückzahlung von Fortbildungskosten

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Rückzahlung der Fortbildungskosten

 

Es ist nicht selten, dass der Arbeitgeber einem Arbeitnehmer die Fortbildung zahlt und diesen finanziell unterstützt. Das Bundesarbeitsgericht hat am 25. April 2023 über einen solchen Fall unter dem Az. 9 AZR 187/22 entschieden.

Was war passiert?

Welcher Lebenssachverhalt hinter dem Urteil steht ist nicht bekannt. Aber es könnte sich wie folgt zugetragen haben:

Maike Tasten ist seit eignen Jahren bei Bernd Buch als Buchhalterin angestellt. Gemeinsam sind die beiden vielleicht bei einem Kaffee in der Mittagspause auf die Idee gekommen, dass Maike eigentlich schon alles wie ein richtiger Steuerberater weiß und das Examen doch mit links machen könnte. Bernd hat so schon einige Buchhalter unterstützt das nicht gerade leichte Steuerberaterexamen erfolgreich abzulegen. Maike fühlt sich geschmeichelt über das Lob und sagt zu, dass sie das Examen ablegen wolle. Wenig später schließen beide einen Vertrag, den Bernd immer für solche Fälle benutzt und fügt nur den Namen und den Betrag der Förderung in den Vordruck ein. Darin war eine Rückzahlungsverpflichtung enthalten. Maike sollte die geleistete Summe zurückzahlen, wenn  sie

  • innerhalb von 24 Monaten nach bestandenem Berufsexamen das Unternehmen verlässt,
  • innerhalb von 24 Monaten nach nicht bestandenem Berufsexamen das Unternehmen verlässt,
  • das Examen wiederholt nicht ablegt.

Zudem war eine Härtefallregelung enthalten, wonach Maike für den Fall ihrer dauerhaften eigenen Erkrankung oder der Pflege von Angehörigen für die Dauer der Verhinderung entschuldigt ist. Beide unterschreiben, Bernd zahlt in der Folge tatsächlich fast 5000 EUR für die Ausbildungskosten. Zur Prüfung ist Maike bis jetzt nicht angetreten. Sie arbeitet auch nicht mehr bei Bernd. Bernd will jetzt sein Geld wieder haben und verklagt Maike auf Rückzahlung.

Die Entscheidung des BAG

Der Rechtsstreit begann im Jahr 2021 vor dem Arbeitsgericht in Lingen und wurde nun in letzter Instanz vom Bundesarbeitsgericht entschieden. Das BAG hat entschieden, dass Maike die von Bernd geleistete Summe nicht zurückzahlen muss. Bernd hat nämlich mit der Vereinbarung sogenannte allgemeine Geschäftsbedingungen benutzt, die einer besonderen Prüfung unterliegen. Immer wenn ein und der derselbe Vertrag für mehr als drei Vertragsabschlüsse von einer Partei, dem Verwender, benutzt wird, dann liegen vorformulierte Vertragsbedingungen vor. Ist die „AGB-Tür“ erst einmal geöffnet, muss nach § 305c Abs. 2, §§ 306, 307 bis 309 BGB geprüft werden, ob die in dem Vertrag aufgenommenen Klauseln den anderen Vertragspartner unangemessen benachteiligen. Genauso ist das BAG vorgegangen und festgestellt, dass die verwendete Rückzahlungsklausel eine unangemessene Benachteiligung darstellt. Hierbei geht das Gericht davon aus, dass eine Rückzahlungsklausel einen Bleibedruck im bestehenden Arbeitsverhältnis zulasten des Arbeitnehmers erzeugen kann und damit das Grundrecht auf freie Wahl des Arbeitsplatzes nach Art. 12 Abs. 1 Satz 1 GG eingeschränkt werden kann. Deshalb muss eine Rückzahlungspflicht einem begründeten und billigenswerten Interesse des Arbeitgebers entsprechen und andererseits den möglichen Nachteilen für den Arbeitnehmer ein angemessener Ausgleich gegenüberstehen. Auch ist zur berücksichtigen, dass die Pflicht zur Rückzahlung nicht über den wirtschaftlichen Verhältnissen des Arbeitnehmers liegt. Dies bedeutet, dass beispielsweise ein Arbeitnehmer mit einem durchschnittlichen netto von 1400,00 EUR nicht auf einmal Ausbildungskosten in Höhe von 20.000 EUR zurückzahlen kann.

Die Wertung der Parteiinteressen an einem ausgedachten Beispiel

Bernd ärgert sich sehr. Eigentlich wollte er für Maike nur etwas Gutes tun und jetzt zahlt er drauf, weil er ein Formular verwendet hat. „Die Maike ist fein raus und der Unternehmer ist am Ende immer der Dumme!“, denkt er sich. Die Maike selbst hat sich überlegt, dass sie eigentlich gar nicht Steuerberater sein will. Sie hat sich nach einer tiefgreifenden Selbsteinschätzung entschlossen den Job und die zusätzliche Ausbildung an den Nagel zu hängen, weil sie lieber was für die Menschen machen will. Sie macht jetzt eine Ausbildung zur Pflegefachkraft. Bei Bernd zu kündigen hat sie viel Überwindung gekostet, weil sie ein schlechtes Gewissen wegen der Ausbildungsvereinbarung und Angst vor der Rückzahlung hat. Nur weil ihre Eltern ihr die finanzielle Unterstützung zugesagt haben, wenn es schief gehen sollte, hat sie sich zu dem Schritt gewagt. Betrachtet man die beiden Parteien und deren Interessen, dann wird klar, dass dem Arbeitgeber als Unternehmer viel Bürden auferlegt werden. Er hat in der Tat verdammt viel Verantwortung für sein Unternehmen und vor allem seine Angestellten. Aber Bernd ist aus Überzeugung selbständig. Auch wenn er sich über die Bürden ärgert, er nimmt sie in Kauf, weil er mit den Bürden und dem Wagnis umgehen kann. Maike kann dies nicht. Sie ist gern in einem Anstellungsverhältnis, weil sie die Sicherheit liebt am Ende des Monats mit einem festen Gehalt rechnen zu können. Dafür nimmt sie in Kauf, dass ihr jemand anders sagt, was sie wie arbeiten soll, ihre Arbeitszeiten bestimmt und wann sie Urlaub machen kann. Es besteht zwischen den beiden Parteien ein rechtliches Ordnungsverhältnis. Bernd ist als Arbeitgeber weisungsbefugt und Maike an die Weisungen gebunden. Dieses rechtliche Ordnungsverhältnis läuft parallel zu dem zwischen den beiden als Menschen bestehenden Machtverhältnis eben wegen der Weisungsgebundenheit. Damit dieses Machtverhältnis in der Waage bleibt bedarf es solcher Entscheidungen das BAG, denn wenn Maike nicht die Zusage ihrer Eltern gehabt hätte, dann wäre sie gezwungen gewesen die Ausbildung zu beenden und noch zwei Jahre bei Bernd zu arbeiten. Da kann man natürlich auch einwenden, die Maike wusste doch vorher worauf sie sich einlässt. Aber: Was wäre gewesen wenn sie nicht zugestimmt hätte? Wäre ihr dann gekündigt werden? Das Recht und die Entscheidung des BAG wollen durch für alle Arbeitnehmer und Arbeitgeber bestehende Kriterien erreichen, dass Gerechtigkeit erreicht werden kann. Der Wehrmutstropfen hängt in der Tat beim Arbeitgeber, da er hat die Verantwortung hat.

 

Datenschutzverstöße von Beschäftigten

Datenschutzverstöße von Beschäftigten

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

 

Wer haftet eigentlich wie, wenn der Mitarbeiter nicht datenschutzkonform handelt? Ist prinzipiell das Unternehmen in der Haftung oder trifft es den Mitarbeiter? Diese Haftungsfrage lässt sich bei einer differenzierten Betrachtung beantworten.

Nutzung der Daten fällt völlig aus dem Rahmen

Benutzt der Mitarbeiter die Daten widerrechtlich für eigene private Zwecke, dann fällt die Handlung des Beschäftigten so sehr aus dem Rahmen, dass er im Sinne des Datenschutzrechtes allein für sein Handeln als Verantwortlicher gerade zu stehen hat. Dies ist damit zu begründen, dass der Mitarbeiter die persönlichen Daten anderer so zweckentfremdet und ausufernd nutzt, dass ein sog. Mitarbeiterexzess gegeben ist.

Ein solcher liegt beispielsweise vor bei der:

  • Nutzung von Telefonnummern zum Aufbau privater Kontakte
  • Abfragen von Kontoinformationen zur Nutzung in einer privaten zivilrechtlichen Streitigkeit.
  • Nutzung von polizeilichen Auskunftssystemen für die eigene private politische Vereinsarbeit.

Das Unternehmen haftet in diesem Fall folglich nicht. So sieht es auch die Entschließung der 97. Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder vom 3. April 2019. Aber die Ausnahme bestätigt die Regel: Hat die Geschäftsleitung von dem Verhalten des Mitarbeiters Kenntnis und duldet dieses, so sitzen beide im selben Boot und haften gemeinsam.

Mitarbeiter handelt innerhalb der unternehmerischen Tätigkeit nicht datenschutzkonform

Handelt ein Mitarbeiter innerhalb der unternehmerischen Tätigkeit nicht datenschutzkonform, wird dessen Handlung dem Unternehmen als Verantwortlicher im Sinne des Datenschutzrechtes zugerechnet. Dies bedeutet, dass das Unternehmen haftet. Ob das Unternehmen den Beschäftigen in Regress nehmen kann, wird im Einzelfall nach den Grundsätzen des sog. innerbetrieblichen Schadensausgleichs festzustellen sein. Der Grad der Haftung hängt vom Grad des Verschuldens des Beschäftigten ab. Bei einer fahrlässigen Datenschutzverletzung hat das Unternehmen in der Regel keinen Anspruch auf Ausgleich, da der Beschäftigte für das Unternehmen und in dessen Interesse gearbeitet hat.

Schadenersatz des Betroffenen

Derjenige, dessen persönliche Daten widerrechtlich verwendet wurden, hat gegen den Verantwortlichen einen Auskunftsanspruch und Schadenersatzanspruch.

Bußgeld durch die Behörde

Die Frage, ob der Mitarbeiter im Exzess oder das Unternehmen im Falle eines nicht exzessiven Datenschutzverstoßes eine Ordnungswidrigkeit begangen hat und hierfür haftet, ist derzeit in der Rechtsprechung und Literatur strittig. Die einen sind der Meinung, dass aus der Verordnungsbegründung (Erwägungsgründen) der DS-GVO der kartellrechtliche sog. funktionale Unternehmensbegriff anzuwenden ist. Die anderen sprechen sich gegen eine Anwendung dieses Begriffs aus. Der funktionale Unternehmensbegriff wird verwendet, um möglichst viele wirtschaftliche Gebilde in den Anwendungsbereich des Kartellrechts einzuordnen. Es geht also lediglich um die Feststellung, dass ein Zusammenschluss von Personen stattfindet und die wirtschaftliche Tätigkeit irgendwie funktioniert, egal welche Rechtsform er hat und wie er sich finanziert. Zusätzlich hierzu sieht die DS-GVO vor, dass grundsätzlich dem EU-Recht der Vorrang vor dem nationalen Recht der Mitgliedsstaaten hat.

Hierin liegt das Dilemma, denn die Anwendung des funktionalen Unternehmensbegriffs lässt sich mit dem deutschen und im Übrigen auch mit dem österreichischen Ordnungswidrigkeitenrecht nicht vereinbaren. Eine juristische Person, also das Unternehmen als GmbH, UG oder AG, kann nur eingeschränkt Täter im Sinne des Ordnungswidrigkeitengesetzes sein. Erforderlich ist, dass ein Fehlverhalten der vertretungsberechtigten Organe, in der Regel der Geschäftsführung, nachgewiesen wird.

So ist es auch nicht verwunderlich, dass der österreichische Verwaltungsgerichtshof im Jahr 2020 der vorrangigen Anwendung von EU-Recht eine Absage erteilt hat (ÖVwGH, Erkenntnis vom 12.5.2020 – Ro 2019/04/0229). In Deutschland ist die Rechtsprechung uneins. Das LG Bonn (Urteil v. 11.11.2020 – 29 OWi 1/20) hat eine unmittelbare Haftung angenommen. Das LG Berlin hat ebenso wie der ÖWwGH eine unmittelbare Haftung des Unternehmens verneint (LG Berlin, Beschluss vom 18.2.2021, Az. 526 OWi LG 212 Js-OWi 1/20 (1/20). Gegen den Beschluss des LG Berlin wurde Beschwerde eingelegt. Es bleibt abzuwarten, wie das Kammergericht Berlin entscheidet und ob es zu einer Vorlage zum EuGH kommt.

Fakt ist, dass es für Unternehmen derzeit keine Rechtssicherheit gibt, ob eine Haftung besteht oder nicht. Unklar sind auch die Maßstäbe für eine zurechenbare Verantwortlichkeit. Fakt ist auch, dass es gar nicht so weit hätte kommen dürfen. Es ist auch bei EU-Verordnungen ein Mindestmaß an sprachlicher Klarheit zu erwarten und nicht erklärbar, weshalb nicht direkt in der Verordnung eine eindeutige Regelung bezüglich der unmittelbaren Verbandshaftung von Unternehmen erfolgt ist.

 

 

 

 

 

 

Rückzahlung von Fortbildungskosten

Gleichberechtigung in Sachen Mütze

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

 

Das Bundesarbeitsgericht hat im Jahr 2014 die Gleichberechtigung für das Tragen von Pilotinnen-Mütze hergestellt.

Zum Sachverhalt: Eine deutsche Fluggesellschaft schloss mit dem Betriebsrat eine Betriebsvereinbarung über die Dienstkleidung des Personals. Darin wurden die Uniformteile für Damen und für Herren getrennt minutiös geregelt. Während es den Piloten zwingend vorgeschrieben war die Pilotenmütze, in der Öffentlichkeit zu tragen, wurde es den Pilotinnen freigestellt, ob sie ihre Pilotenmütze in der Öffentlichkeit tragen wollen oder nicht. Gegen diese Regelung klagte ein Pilot. Er hatte seine Cockpitmütze nicht bei sich geführt und wurde deswegen von einem Flug abgesetzt. Er berief sich auf die Unwirksamkeit der Tragepflicht, weil diese ihn wegen seines Geschlechts diskriminiere.

Nach der Vorinstanz, dem Landesarbeitsgericht Köln, lag keine Ungleichbehandlung vor.

Das Landesarbeitsgericht Köln (Az. 5 Sa 549/11) hatte entschieden, dass die Tragepflicht für Piloten nicht gegen das Benachteiligungsverbot des § 7 Abs.1, Abs. 5 iVm § 1 AGG verstößt. Piloten werden gegenüber dem anderen Geschlecht wegen der Tragepflicht nicht herabgesetzt. Der Pilot würde durch die Verpflichtung zum Tragen der Mütze nicht wegen seines Geschlechts benachteiligt, da die Betriebsvereinbarung an mehreren Stellen zwischen den Geschlechtern differenziere wie beispielsweise zwischen Blusen mit Accessoires für Damen und Hemden mit Krawatte für Herren.

Das BAG stellt Ungleichbehandlung fest.

Das Bundesarbeitsgericht (1. Senat, Urteil vom 30.09.2014, Az. 1 AZR 1083/12) bejahte die Ungleichbehandlung. Es handelt sich bei der durch die Betriebsvereinbarung vorgenommenen Gruppenbildung zwischen dem männlichen und weiblichen Personal um eine Regelung, die gegen das Gleichbehandlungsgebot des § 75 BetrVG verstößt. Die nur für Piloten geltende Tragepflicht der Mütze in der Öffentlichkeit ist nicht gerechtfertigt. Dies ergebe sich schon daraus, dass nach einer Regelung der strittigen Betriebsvereinbarung über die Gestaltung der Frisur von Pilotinnen die Frisur dem Tragen der Mütze nicht entgegenstehe. Danach sollten Pilotinnen ihre Frisur in „Klassik und Eleganz“ dem Hut anpassen. Folglich gab es keinerlei sachliche Gründe für eine unterschiedliche Behandlung der Geschlechter.

Chapeau!

 

Betriebsvereinbarung über Beschäftigtendatenschutz

Betriebsvereinbarung über Beschäftigtendatenschutz

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Was ist eine Betriebsvereinbarung?

Eine Betriebsvereinbarung ist die Einigung zwischen dem Betriebsrat und dem Arbeitgeber über einen Regelungsbereich im Betrieb. Sie gliedert sich in einen schuldrechtlichen Teil, der die Rechtsbeziehung zwischen dem Betriebsrat und dem Arbeitgeber regelt sowie einen normativen Teil, der verbindliche Regelungen über die Arbeitsverhältnisse der Angestellten im Unternehmen.

Eine gültige Betriebsvereinbarung liegt vor, wenn:

  • Der Betriebsrat und der Arbeitgeber eine wirksame Vereinbarung geschlossen haben.
  • Diese schriftlich niedergelegt ist (§ 77 Abs. 2 BetrVG).
  • Sie zulässige Regelungen über die Arbeitsverhältnisse enthält.

Was ist unter Beschäftigtendatenschutz zu verstehen?

Der Begriff umschreibt die Verarbeitung von personenbezogenen Daten der Beschäftigten im Rahmen des Arbeitsverhältnisses. Unter solchen personenbezogenen Daten sind alle Einzelangaben über persönliche und sachliche Verhältnisse eines bestimmten oder bestimmbaren Beschäftigten zu verstehen.

Kann in einer Betriebsvereinbarung der Beschäftigtendatenschutz geregelt werden?

Ja, die europäische Datenschutzgrundverordnung legt in § 88 Abs. DS-GVO (Datenschutz Grundverordnung) ausdrücklich fest, dass die einzelnen Mitgliedsstaaten durch Rechtsvorschriften oder Kollektivvereinbarungen den Beschäftigtendatenschutz regeln können. Die Betriebsvereinbarung ist eine Dienstvereinbarung im Sinne der europäischen Datenschutzverordnung.

Warum ist eine Betriebsvereinbarung über den Beschäftigtendatenschutz notwendig?

Durch das Bundesdatenschutzgesetz werden in § 26 BDSG (Bundesdatenschutzgesetz) Regelungen über die Datenverarbeitung zum Zwecke des Beschäftigungsverhältnisses aufgestellt. Diese sind aber nicht abschließend. Um die individuellen Gegebenheiten und Bedürfnisse im Einzelfall für einen ganz bestimmten Betrieb regeln zu können, ist eine Betriebsvereinbarung für die Rechtsklarheit über die Rechte und Ansprüche von Arbeitgeber, Betriebsrat und Arbeitnehmer äußerst ratsam. Die Betriebsvereinbarung kann beispielsweise die Videoüberwachung, den Einsatz von künstlicher Intelligenz, die Durchführung von Mitarbeiterkontrollen oder die Leistungsüberwachung regeln.

Durch die Betriebsvereinbarung können nicht nur Konkretisierungen des BDSG oder der Datenschutz zu Gunsten der Beschäftigen verbessert werden, sondern es darf durch sie auch zulasten der Beschäftigten von den Regelungen des BDSG abgewichen werden.

In einem solchen Fall muss eine sorgfältige Abwägung zwischen den Interessen des Arbeitgebers an einer bestimmten Datenverarbeitung und dem Persönlichkeitsrecht getroffen werden. Hier ist vor allem § 75 Abs.2 BetrVG zu beachten, wonach Arbeitgeber und Betriebsrat die freie Entfaltung der Persönlichkeit der im Betrieb beschäftigten Arbeitnehmer zu schützen und zu fördern haben.

 

 

 

 

 

 

 

 

Cookie Consent mit Real Cookie Banner