Seite wählen
Der Einsatz von Keyloggern am Arbeitsplatz

Der Einsatz von Keyloggern am Arbeitsplatz

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Der Einsatz von Keyloggern am Arbeitsplatz

 

Definition und Funktionsweise eines Keyloggers

Ein Keylogger ist eine Software oder ein Hardwaregerät, das sämtliche Tastatureingaben eines Computers aufzeichnet. Dies kann zur umfassenden Überwachung der Nutzung eines Computers durch den Arbeitgeber eingesetzt werden. Neben der Kontrolle, welche Tätigkeiten ein Arbeitnehmer während seiner Arbeitszeit ausführt, kann ein Keylogger auch dazu dienen, die Geschwindigkeit und Effizienz der Arbeitsweise zu analysieren. Durch die Aufzeichnung von Tastenanschlägen und die Erfassung von Zeitintervallen zwischen den Eingaben lassen sich detaillierte Rückschlüsse auf die Arbeitsweise eines Mitarbeiters ziehen.

Sachverhalt des Urteils (BAG, Urteil vom 27. Juli 2017 – 2 AZR 681/16)

Im vorliegenden Fall ging es um einen Webentwickler, der seit 2011 bei einem Unternehmen tätig war. Der Arbeitgeber hatte auf dem Dienst-PC des Mitarbeiters einen Keylogger installiert, ohne diesen zuvor konkret über diese Maßnahme zu informieren. Die durch den Keylogger erfassten Daten zeigten, dass der Arbeitnehmer während der Arbeitszeit private Tätigkeiten ausführte, darunter die Entwicklung eines Computerspiels sowie das Bearbeiten geschäftlicher E-Mails für das Unternehmen seines Vaters. Dies führte zur außerordentlichen fristlosen Kündigung des Arbeitnehmers. Der Arbeitnehmer klagte gegen die Kündigung und argumentierte, dass die Überwachungsmaßnahme gegen sein Grundrecht auf informationelle Selbstbestimmung verstoße und damit unzulässig sei.

Entscheidung des Bundesarbeitsgerichts

Das Bundesarbeitsgericht (BAG) entschied mit Urteil vom 27. Juli 2017 (Az. 2 AZR 681/16), dass die Kündigung des Arbeitnehmers unwirksam sei, da die durch den Keylogger gewonnenen Erkenntnisse einem Verwertungsverbot unterliegen. Nach der Entscheidung verstößt die heimliche Erfassung und Speicherung von Tastatureingaben gegen das allgemeine Persönlichkeitsrecht des Arbeitnehmers, das sich aus Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 Grundgesetz (GG) ergibt.

Die zentralen rechtlichen Erwägungen des Gerichts waren, dass die Überwachung durch einen Keylogger einen tiefgreifenden Eingriff in das allgemeine Persönlichkeitsrecht des Arbeitnehmers darstellt. Ein solcher Eingriff ist nur dann zulässig, wenn ein durch konkrete Tatsachen begründeter Verdacht auf eine Straftat oder eine schwerwiegende Pflichtverletzung besteht. Eine allgemeine Kontrolle der Arbeitsweise oder der Arbeitsgeschwindigkeit ohne einen spezifischen Verdacht wird als unverhältnismäßig angesehen und ist nicht durch § 32 Abs. 1 des Bundesdatenschutzgesetzes (BDSG a.F.) gerechtfertigt. Da die durch den Keylogger gewonnenen Erkenntnisse unter Verstoß gegen diese Grundsätze erlangt wurden, unterliegen sie einem Verwertungsverbot und dürfen im Kündigungsschutzprozess nicht berücksichtigt werden.

Interessenabwägung zwischen Arbeitgeber und Arbeitnehmer

Die Entscheidung des BAG zeigt die grundlegende Abwägung zwischen dem berechtigten Interesse des Arbeitgebers an der Überwachung der Arbeitsleistung und den Rechten der Arbeitnehmer auf Datenschutz und Privatsphäre.

Argumente zugunsten des Arbeitgebers

  • Arbeitgeber haben ein legitimes Interesse daran, die Arbeitszeit ihrer Angestellten effizient zu nutzen und Verstöße gegen betriebliche Vorgaben zu ahnden.
  • Die Kontrolle von Arbeitsgeschwindigkeit und -qualität ist insbesondere in digitalisierten Arbeitsbereichen relevant, in denen Produktivität häufig anhand von Tastatureingaben, Bearbeitungszeiten oder Nutzeraktivitäten gemessen wird.
  • In sicherheitskritischen Branchen oder bei besonders sensiblen Daten kann eine lückenlose Kontrolle helfen, Regelverstöße oder Datenmissbrauch frühzeitig zu erkennen.
  • Eine unkontrollierte private Nutzung betrieblicher IT-Systeme kann nicht nur die Arbeitsleistung, sondern auch die Sicherheit von Unternehmensnetzwerken gefährden.
  • Das Urteil könnte dazu führen, dass Arbeitgeber weniger Möglichkeiten haben, sich gegen unerlaubte private Nutzung oder ineffiziente Arbeitsweisen zur Wehr zu setzen.

Argumente zugunsten des Arbeitnehmers

  • Auf der anderen Seite schützt die Entscheidung des Gerichts das Grundrecht der Arbeitnehmer auf informationelle Selbstbestimmung und Privatheit im Arbeitsverhältnis.
  • Eine ständige Überwachung durch Keylogger könnte Arbeitnehmer einem unzumutbaren Anpassungsdruck aussetzen, da sie jederzeit mit einer vollständigen Kontrolle ihrer Arbeitsweise rechnen müssen.
  • Die Erfassung von Tastatureingaben gibt nicht nur Aufschluss über die Produktivität, sondern kann auch private oder hochsensible Informationen wie Passwörter oder persönliche E-Mails aufzeichnen.
  • Arbeitnehmer sollten nicht pauschal unter Verdacht gestellt werden; eine Überwachung darf nur erfolgen, wenn konkrete Verdachtsmomente vorliegen.

Schlusspunkt

Die Entscheidung des BAG setzt klare Grenzen für den Einsatz von Keyloggern im Arbeitsverhältnis. Arbeitgeber müssen vor der Implementierung solcher Überwachungstechnologien sicherstellen, dass eine rechtliche Grundlage für deren Einsatz besteht und die Maßnahme verhältnismäßig ist. Das Urteil macht deutlich, dass eine verdachtsunabhängige, vollständige Überwachung der Arbeitsweise von Beschäftigten nicht zulässig ist. Gleichzeitig bleibt es Arbeitgebern möglich, in begründeten Fällen gezielte Kontrollmaßnahmen zu ergreifen.

Ruhe bewahren bei Anfragen von Ermittlungsbehörden

Ruhe bewahren bei Anfragen von Ermittlungsbehörden

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Wenn eine Ermittlungsbehörde, wie die Polizei oder Staatsanwaltschaft, eine Anfrage zur Herausgabe personenbezogener Daten stellt, ist es wichtig, Ruhe zu bewahren und nicht übereilt zu handeln. Eine sofortige Herausgabe von Daten ist nur dann erforderlich, wenn Gefahr in Verzug besteht. Das bedeutet, dass ein sofortiges Handeln unabdingbar ist, um eine drohende erhebliche Gefahr für Leib, Leben oder bedeutende Rechtsgüter abzuwenden. In allen anderen Fällen sollte eine sorgfältige Prüfung der rechtlichen Voraussetzungen erfolgen.

Wann dürfen Daten weitergegeben werden?

Personenbezogene Daten unterliegen strengen Schutzbestimmungen nach der DSGVO und dem BDSG. Eine Weitergabe ist grundsätzlich nur erlaubt, wenn eine gesetzliche Grundlage besteht. Besonders relevant ist hier § 24 Abs. 1 Nr. 1 BDSG, wonach eine Datenweitergabe zulässig ist, wenn sie „zur Verhütung oder Verfolgung von Straftaten erforderlich ist“. Dies bedeutet, dass die Herausgabe zwingend notwendig sein muss und keine milderen Alternativen bestehen dürfen.

Besondere Pflichten von Sozialpädagogen

Sozialpädagogen und ihre Berufshelfer unterliegen nach § 203 StGB der Verschwiegenheitspflicht. Eine unbefugte Weitergabe von vertraulichen Informationen ist strafbar. Deshalb dürfen sie Auskünfte grundsätzlich nur gegenüber der Staatsanwaltschaft oder dem Gericht machen, nicht jedoch gegenüber der Polizei, es sei denn, eine ausdrückliche gesetzliche Grundlage liegt vor.

Wie sollte man vorgehen?

Falls eine Anfrage einer Ermittlungsbehörde eingeht, sollten folgende Schritte beachtet werden:

  • Schriftliche Anfrage anfordern: Lassen Sie sich die Anfrage immer schriftlich mit Angabe der Rechtsgrundlage geben.
  • Rechtliche Prüfung vornehmen: Prüfen Sie, ob eine Herausgabe tatsächlich erforderlich und rechtlich zulässig ist.
  • Intern dokumentieren: Jede Anfrage und Entscheidung sollte sorgfältig dokumentiert werden.
  • Daten sicher übermitteln: Falls eine Weitergabe erfolgt, sollten die Daten nur verschlüsselt und passwortgeschützt übermittelt werden.
  • Betroffenen informieren: Nach Art. 14 DSGVO besteht eine Informationspflicht gegenüber dem Betroffenen, es sei denn, die Staatsanwaltschaft ordnet eine Geheimhaltung an.

Fazit

Bei Anfragen von Ermittlungsbehörden gilt: Besonnen handeln, Rechtsgrundlagen prüfen und dokumentieren. Nur wenn Gefahr in Verzug besteht, ist ein sofortiges Handeln notwendig. In allen anderen Fällen sollte die Herausgabe personenbezogener Daten erst nach sorgfältiger Prüfung erfolgen, um rechtliche Konsequenzen zu vermeiden.

 

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Das Bundesarbeitsgericht (BAG) entschied am 28. Januar 2025 (Az. 1 AZR 33/24), dass ein Arbeitgeber nicht verpflichtet ist, der tarifzuständigen Gewerkschaft die dienstlichen E-Mail-Adressen seiner Beschäftigten zum Zweck der Mitgliederwerbung mitzuteilen.

Die klagende Gewerkschaft wollte im Betrieb der Beklagten digitale Werbemaßnahmen durchführen und forderte hierfür unter anderem die Übermittlung der E-Mail-Adressen aller Arbeitnehmer, Zugang zum konzernweiten Netzwerk sowie eine Verlinkung ihrer Webseite im Intranet der Beklagten.

Wie bereits die Vorinstanz, das Landesarbeitsgericht Nürnberg (Urteil vom 26. September 2023 – 7 Sa 344/22), wies auch das BAG die Klage ab. Es stellte fest, dass die Koalitionsbetätigungsfreiheit nach Art. 9 Abs. 3 GG nicht dazu verpflichtet, der Gewerkschaft einen direkten Zugang zu den internen digitalen Kommunikationsmitteln des Unternehmens zu gewähren. Eine solche Forderung kollidiere mit den Grundrechten des Arbeitgebers und der Arbeitnehmer, insbesondere mit deren Datenschutzrechten.

Die Entscheidung betont, dass Gewerkschaften die Möglichkeit haben, Arbeitnehmer vor Ort nach ihrer betrieblichen E-Mail-Adresse zu fragen, um so ihre Werbemaßnahmen durchzuführen.

BGH-Urteil zum Datenschutz: Kontrollverlust über Daten als Schaden

BGH-Urteil zum Datenschutz: Kontrollverlust über Daten als Schaden

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

BGH-Urteil zum Datenschutz: Kontrollverlust über Daten als Schaden

Der Bundesgerichtshof (BGH) hat mit Urteil vom 18.11.2024 (VI ZR 10/24) entschieden, dass bereits der Verlust der Kontrolle über personenbezogene Daten einen immateriellen Schaden im Sinne des Art. 82 Abs. 1 DS-GVO darstellen kann – unabhängig davon, ob die Daten tatsächlich missbräuchlich verwendet wurden oder spürbare negative Folgen eingetreten sind.

Hintergrund des Falls

Ein Nutzer des sozialen Netzwerks Facebook hatte geklagt, weil seine personenbezogenen Daten – darunter Name, Geschlecht und Telefonnummer – durch ein sogenanntes Scraping-Verfahren unbefugt erfasst und veröffentlicht wurden. Das Unternehmen hatte weder den Kläger noch die zuständige Datenschutzbehörde über den Vorfall informiert. Der Kläger machte geltend, dass er dadurch die Kontrolle über seine Daten verloren habe und dies einen Schaden darstelle.

Entscheidung des BGH

Der BGH stellte klar, dass ein Kontrollverlust über Daten bereits für einen Schadensersatzanspruch ausreicht. Dabei muss der Betroffene nicht beweisen, dass es zu konkreten finanziellen oder sonstigen negativen Auswirkungen gekommen ist. Der Gerichtshof betonte, dass der Datenschutz nicht nur vor Missbrauch schützen soll, sondern auch das Grundrecht auf informationelle Selbstbestimmung stärkt.

Höhe des Schadensersatzanspruchs bei Kontrollverlust über personenbezogene Daten

Die Höhe des Schadensersatzanspruchs bei einem Kontrollverlust über personenbezogene Daten hängt von verschiedenen Faktoren ab. Das Gericht muss insbesondere die Sensibilität der betroffenen Daten (z. B. Gesundheitsdaten gemäß Art. 9 Abs. 1 DS-GVO) sowie deren übliche Verwendungszwecke berücksichtigen.

Weitere entscheidende Aspekte sind:

  • Art des Kontrollverlusts (wer hatte Zugriff: begrenzter oder unbegrenzter Empfängerkreis?),
  • Dauer des Kontrollverlusts,
  • Möglichkeit der Wiedererlangung der Kontrolle (z. B. durch Entfernen der Daten aus dem Internet oder Wechsel der Telefonnummer).

Als Richtwert für einen einfachen Kontrollverlust könnte der hypothetische Aufwand für die Wiederherstellung der Kontrolle dienen. Beispielsweise wurde vom OLG Hamm ein Schadensersatz von 100 Euro als angemessen angesehen. Falls der Betroffene jedoch psychische Beeinträchtigungen geltend macht, die über allgemeine Unannehmlichkeiten hinausgehen, kann das Gericht einen höheren Betrag zusprechen. In solchen Fällen ist eine individuelle Prüfung und Anhörung des Betroffenen erforderlich. Dann könnte der Anspruch höher sein. Tatsache ist aber, dass die deutschen Gerichte bei Schmerzensgeld nicht großzügig sind.

Bedeutung für Nutzer und Unternehmen

Diese Entscheidung ist von großer Bedeutung, weil sie den Schutz von personenbezogenen Daten auf eine neue Ebene hebt. Unternehmen müssen ihre Datenschutzmaßnahmen verschärfen, um Verstöße zu vermeiden. Nutzer sollten sich bewusst sein, dass sie einen Anspruch auf Schadensersatz haben, wenn ihre Daten ohne ihre Zustimmung verwendet werden.

Datenschutz ist mehr als nur Theorie

Mit diesem Urteil wird klar: Der Schutz der Privatsphäre ist kein bloßes Lippenbekenntnis, sondern ein einklagbares Recht. Wer Daten verliert, verliert oft mehr als nur Informationen – und jetzt möglicherweise auch Geld.

 

Annahmeverzugsvergütung

Annahmeverzugsvergütung

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Annahmeverzugsvergütung

 

Das Landesarbeitsgericht (LAG) Niedersachsen hat mit Urteil vom 19.11.2024 (Az. 11 Sa 827/23) entschieden, dass ein Arbeitgeber die Beweislast trägt, wenn er einem gekündigten Arbeitnehmer böswilliges Unterlassen anderweitigen Verdienstes vorwirft. Die Vorinstanz war das Arbeitsgericht Nienburg (Az. 2 Ca 122/23).

Der Fall

Nach der fristlosen Kündigung des Klägers machte dieser Ansprüche auf Annahmeverzugsvergütung geltend. Der Arbeitgeber argumentierte, der Kläger habe es unterlassen, sich um eine neue Beschäftigung zu bemühen, und sei seiner Pflicht zur Arbeitslosmeldung nicht rechtzeitig nachgekommen.

Entscheidung des Gerichts

Das LAG stellte klar, dass allein eine verspätete Arbeitslosmeldung keine Vermutung dafür begründet, dass bei rechtzeitiger Meldung eine zumutbare Stelle hätte vermittelt werden können. Vielmehr muss der Arbeitgeber konkret nachweisen, dass es tatsächlich geeignete Stellen gab, auf die sich der Arbeitnehmer hätte bewerben können.

Auch wenn sich der Arbeitnehmer nicht aktiv um eine neue Stelle bemüht, entbindet dies den Arbeitgeber nicht von seiner Darlegungslast. Die bloße Behauptung, es habe Arbeitsangebote gegeben, reicht nicht aus.

Fazit

Das Urteil stärkt die Rechte von Arbeitnehmern im Annahmeverzug. Arbeitgeber müssen sorgfältig nachweisen, dass dem Arbeitnehmer eine zumutbare Alternative zur Verfügung stand. Andernfalls bleibt der Anspruch auf Annahmeverzugsvergütung bestehen. Zudem zeigt die Entscheidung, dass Arbeitgeber aktiv handeln müssen, um den Annahmeverzug zu beenden. Kritik über die Untätigkeit des Arbeitnehmers allein genügt nicht.

Kein Erbe für die Liebe? OLG München sagt: Testament gilt!

Kein Erbe für die Liebe? OLG München sagt: Testament gilt!

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

OLG München: Enterbung wegen Eheschließung nicht sittenwidrig

 

Das Oberlandesgericht (OLG) München hat entschieden, dass eine Enterbung aufgrund einer bestimmten Eheschließung nicht automatisch sittenwidrig ist. Der Fall betraf einen Erblasser, der in seinem Testament festlegte, dass sein Sohn enterbt wird, falls er eine bestimmte Person heiratet – was tatsächlich geschah.

Gericht bestätigt Testierfreiheit

Das Gericht stellte fest, dass die Klausel nicht gegen die guten Sitten verstößt. Zwar könnte eine Bedingung, die das Grundrecht auf Eheschließungsfreiheit einschränkt, problematisch sein. Doch da der Erblasser in seinem Testament frei entscheiden kann, wem er sein Vermögen hinterlässt, wurde die Regelung als zulässig eingestuft.

Abwägung der Interessen

Das Gericht berücksichtigte, dass der enterbte Sohn trotzdem pflichtteilsberechtigt bleibt und wirtschaftlich nicht benachteiligt ist. Zudem hätte der Erblasser seine Entscheidung jederzeit widerrufen oder ändern können. Da dies nicht geschah, war anzunehmen, dass er an seiner Verfügung festhalten wollte.

Kein Anspruch auf Erbschaft

Die Entscheidung zeigt: Eine Enterbung ist nicht sittenwidrig, nur weil sie an eine Bedingung geknüpft ist. Ein potenzieller Erbe hat keinen Anspruch darauf, in einem Testament bedacht zu werden.

BGH-Urteil zum Datenschutz: Kontrollverlust über Daten als Schaden

Smarte Geräte, große Fragen: Datenschutz im IoT-Zeitalter

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Smarte Geräte, große Fragen: Datenschutz im IoT-Zeitalter

 

Die Entwicklung des IoT begann bereits in den 1970er-Jahren mit einem vernetzten Getränkeautomaten an der Carnegie Mellon University. Heute sind smarte Geräte aus Haushalten und Unternehmen nicht mehr wegzudenken. Prognosen zeigen, dass der IoT-Markt in Deutschland bis 2028 auf über 51 Milliarden Euro anwachsen wird. Doch während sich die Technologie rasant weiterentwickelt, bleibt der Datenschutz weitgehend ungeklärt.

Ungewisse Datenströme und fehlende Transparenz

Das Internet der Dinge (IoT) vernetzt smarte Geräte mit dem Internet und ermöglicht ihnen den Austausch von Daten. Doch während die Zahl der IoT-Geräte exponentiell wächst, bleiben zentrale Datenschutzfragen ungeklärt. Nutzer wissen oft nicht, welche Daten ihre Geräte sammeln, wohin sie gesendet werden und wer davon profitiert.

Was ist IoT und wo begegnet es uns?

IoT-Geräte sind technische Geräte, die mit einer Software ausgestattet sind und dauerhaft mit dem Internet verbunden sind. Sie generieren Daten, tauschen sie aus und kommunizieren mit anderen Geräten. Der Ursprung dieser Technologie reicht bis in die 1970er-Jahre zurück, als Informatiker der Carnegie Mellon University einen Getränkeautomaten mit Sensoren ausstatteten, um den Füllstand aus der Ferne zu überwachen.

Heute sind IoT-Geräte allgegenwärtig: von Smartphones, Smartwatches und Saugrobotern über intelligente Kaffeemaschinen und Rasenmäher bis hin zu vernetzten Produktionsanlagen und Arbeitsschutzkleidung (Wearables). Insbesondere in der Industrie und im Arbeitsleben gewinnen sie an Bedeutung.

Die Zukunft des IoT: Eine neue technologische Revolution?

Während einige Experten IoT als eine technische Revolution wie das Telefon oder das Internet betrachten, gibt es auch skeptische Stimmen. Dennoch sprechen die Prognosen eine klare Sprache: Der IoT-Markt wird in den nächsten Jahren drastisch wachsen. In Deutschland soll sich der Umsatz bis 2028 auf 51,05 Milliarden Euro vervierfachen. Besonders rasant wächst der Bereich der Konsumgüter, auch wenn er nicht der Haupttreiber der Entwicklung ist.

Welche Daten sammeln IoT-Geräte – und wohin werden sie gesendet?

Eine der drängendsten Fragen ist die Datenverarbeitung durch IoT-Geräte. Nutzer haben derzeit keinen Einblick, welche Daten ihre Geräte erfassen und wohin sie gesendet werden. Dies ist aus datenschutzrechtlicher Sicht problematisch, da sich hier potenzielle Risiken für Verbraucher ergeben.

Warum ist das relevant?

  • Es ist oft nicht ersichtlich, ob und in welchem Umfang personenbezogene Daten übertragen werden.
  • Die Datenschutz-Grundverordnung (DS-GVO) schützt zwar personenbezogene Daten, doch die Abgrenzung zu anonymen oder nicht personenbezogenen Daten ist schwierig.
  • Unternehmen, die IoT-Daten sammeln, sind nicht immer transparent über deren Nutzung.
  • Nutzer haben keinen finanziellen Ausgleich für die durch sie generierten Daten, obwohl diese für Unternehmen einen hohen wirtschaftlichen Wert haben.

Regulierungen: Reicht die DS-GVO aus?

Auf EU-Ebene sind bereits erste Regulierungen in Planung oder Umsetzung, doch ein umfassender Schutz der Verbraucher besteht noch nicht. Die DS-GVO schützt personenbezogene Daten, allerdings bleibt unklar, wer die Kontrolle über nicht-personenbezogene Daten hat.

Der Data Act der EU hat diese Frage bislang nicht eindeutig beantwortet. Besonders unklar bleibt, ob Nutzer Eigentumsrechte an den von ihnen generierten Daten haben sollten und welche Pflichten Hersteller bei der Offenlegung der Datennutzung haben.

Herausforderungen für Verbraucher

Selbst wenn Nutzer technisch in der Lage wären, den Datenfluss ihrer IoT-Geräte zu unterbinden, stellt sich die Frage, ob die Geräte dann noch ordnungsgemäß funktionieren. Hersteller könnten dies als „Mangel“ werten, wodurch Garantieansprüche erlöschen. Zudem bleibt die Frage offen, ob Unternehmen verpflichtet sind, schon vor dem Kauf über die Datenverarbeitung ihrer Geräte zu informieren.

Besonders kritisch ist die Mitbetroffenheit Dritter:

  • Was passiert mit Gästen oder Mitbewohnern, die nicht eingewilligt haben, aber von Kameras oder Sensoren in IoT-Geräten erfasst werden?
  • Welche Rechte haben Personen, die unbeabsichtigt von IoT-Geräten in fremden Haushalten erfasst werden?

Nutzer müssen sich ihrer Daten bewusst werden

Das Internet der Dinge erleichtert unseren Alltag – doch es bringt auch Risiken mit sich. Smarte Geräte wie Sprachassistenten, vernetzte Kameras oder Fitness-Tracker sammeln und übermitteln ständig Daten. Doch wer kontrolliert, was mit diesen Informationen geschieht? Viele Nutzer unterschätzen die Gefahr für ihre Privatsphäre. Ohne klare Einwilligung werden persönliche Daten oft an Unternehmen weitergegeben, gespeichert oder für Werbezwecke genutzt. In einigen Fällen können sogar Bewegungsprofile erstellt oder Gespräche analysiert werden. Viele Geräte scheinen keine Datensicherheit zu gewährleisten, so dass unberechtigte Dritte über die Geräte die Nutzer ausspähen und beispielsweise zur Vorbereitung von Einbruchsdiebstählen nutzen können.

Datenschutz bedeutet, selbst zu entscheiden, welche Daten gesammelt werden und wer darauf Zugriff hat. Nur wer sich dieser Risiken bewusst ist, kann aktiv Maßnahmen ergreifen: Datenschutzeinstellungen anpassen, bewusster Geräte auswählen und gezielt Funktionen deaktivieren. Datenschutz ist kein Luxus, sondern ein Schutzschild für die eigene Privatsphäre. Wer sich informiert, bleibt souverän – auch in einer vernetzten Welt!

Es braucht mehr Transparenz und Regulierung

IoT ist nicht mehr aus unserem Alltag wegzudenken, doch der Datenschutz hinkt hinterher. Nutzer haben weder Einblick in die Datenströme noch die Möglichkeit, ihre Daten zu kontrollieren oder zu monetarisieren.

Dringende Fragen, die geklärt werden müssen:

  • Welche europäischen Rechtsgrundlagen regeln die Datenverarbeitung von IoT-Geräten?
  • Welche Rechte brauchen Verbraucher?
  • Welche Pflichten sollten IoT-Herstellern auferlegt werden?
  • Brauchen wir eine „Datenampel“ zur besseren Kennzeichnung?

Mehr zu diesem Thema in der DANA – Zeitschrift der Deutschen Vereinigung für Datenschutz: DANA-Archiv 2023.

Arbeitszeitbetrug im Homeoffice

Arbeitszeitbetrug im Homeoffice

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Arbeitszeitbetrug im Homeoffice

 

Die fortschreitende Digitalisierung und die Flexibilisierung der Arbeitswelt haben das Homeoffice zu einer etablierten Arbeitsform gemacht. Doch mit den Vorteilen kommen auch Herausforderungen, insbesondere wenn es um die Kontrolle der Arbeitszeit geht. Ein aktueller Fall vor dem Landesarbeitsgericht Rheinland-Pfalz zeigt, wie schwierig es für Arbeitgeber sein kann, Arbeitszeitbetrug nachzuweisen und rechtssicher dagegen vorzugehen.

Arbeitszeitbetrug: Was bedeutet das genau?

Arbeitszeitbetrug liegt vor, wenn ein Arbeitnehmer Arbeitszeiten vortäuscht, um eine Vergütung für nicht erbrachte Arbeitsleistung zu erhalten. Dies kann beispielsweise durch falsche Angaben in der Arbeitszeiterfassung, das unbefugte Verlassen des Arbeitsplatzes oder – im Homeoffice – durch die private Nutzung dienstlicher Arbeitsgeräte während der Arbeitszeit geschehen. Arbeitgeber stehen hierbei vor der Herausforderung, den Nachweis für eine Pflichtverletzung zu erbringen.

Der Fall vor dem LAG Rheinland-Pfalz

Im Dezember 2023 entschied das LAG Rheinland-Pfalz (Urteil vom 19.12.2023 – 8 Sa 48/23) über die außerordentliche Kündigung einer Arbeitnehmerin, die im Homeoffice tätig war. Der Arbeitgeber warf ihr vor, während der Arbeitszeit private Webseiten besucht und andere nicht arbeitsbezogene Tätigkeiten ausgeführt zu haben. Da es im Unternehmen keine Arbeitszeiterfassung gab, stützte sich der Arbeitgeber auf den Browserverlauf des Dienstlaptops sowie auf Kommunikationsprotokolle aus dem firmeneigenen Messaging-Dienst.

Die Arbeitnehmerin argumentierte, dass sie ihre Arbeitszeit flexibel gestalten durfte und dass einige der vorgeworfenen Aktivitäten dienstlichen Bezug hatten. Zudem führte sie an, dass sie oft offline gearbeitet habe, wodurch der Browserverlauf nicht als alleiniger Beweis für eine fehlende Arbeitsleistung herangezogen werden könne.

Die Beweislast im Kündigungsschutzprozess

Ein zentrales Thema in dem Verfahren war die Darlegungs- und Beweislast. Das Gericht stellte klar, dass der Arbeitgeber nicht nur nachweisen muss, dass der Arbeitnehmer während der Arbeitszeit private Tätigkeiten ausgeführt hat, sondern auch, dass er dadurch seine arbeitsvertraglichen Pflichten verletzt hat. Dies kann besonders schwierig sein, wenn keine eindeutigen Arbeitszeiterfassungen existieren.

Nach dem Urteil des LAG reicht es nicht aus, allein die Nutzung privater Webseiten während der Arbeitszeit zu belegen. Vielmehr muss der Arbeitgeber darlegen, dass dadurch die geschuldete Arbeitsleistung nicht erbracht wurde. Die Entscheidung zeigt deutlich, dass eine lückenhafte Kontrolle der Arbeitszeiten es erschwert, arbeitsrechtliche Maßnahmen durchzusetzen.

Prävention: Wie können Arbeitgeber sich schützen?

Um Arbeitszeitbetrug zu vermeiden und gleichzeitig eine faire und transparente Arbeitsweise im Homeoffice zu gewährleisten, sollten Unternehmen klare Regelungen treffen:

  1. Arbeitszeiterfassung: Eine verpflichtende Zeiterfassung kann helfen, Arbeitszeiten besser zu dokumentieren und Streitigkeiten zu vermeiden.
  2. Klare Homeoffice-Regeln: Durch Betriebsvereinbarungen oder individuelle Arbeitsverträge sollte geregelt werden, in welchem Rahmen Arbeitszeiten flexibel gestaltet werden können.
  3. Schulungen und Sensibilisierung: Mitarbeiter sollten über ihre Pflichten informiert und für die Bedeutung von Arbeitszeitregelungen sensibilisiert werden.
  4. Vertrauensbasierte Kontrolle: Statt auf strikte Überwachung zu setzen, sollten Unternehmen auf Ergebnisse und Zielvorgaben fokussieren.

Wie kann sich der Betriebsrat einsetzen?

Der Betriebsrat hat die Möglichkeit, sich für klare und faire Homeoffice-Regelungen einzusetzen. Er kann mit dem Arbeitgeber Betriebsvereinbarungen zu Arbeitszeitregelungen aushandeln, um sicherzustellen, dass Mitarbeiter nicht ungerechtfertigt unter Verdacht geraten. Zudem kann er Arbeitnehmer in Streitfällen unterstützen und bei Kündigungen wegen vermeintlichen Arbeitszeitbetrugs vermitteln. Auch kann der Betriebsrat darauf hinwirken, dass eine transparente Arbeitszeiterfassung eingeführt wird, die sowohl die Interessen des Arbeitgebers als auch die der Arbeitnehmer berücksichtigt.

Wie können sich Arbeitnehmer absichern?

Arbeitnehmer können verschiedene Maßnahmen ergreifen, um sich gegen den Vorwurf des Arbeitszeitbetrugs abzusichern:

  1. Dokumentation der Arbeitszeit: Wer seine Arbeitszeit selbst genau dokumentiert, kann bei Streitigkeiten einen klaren Nachweis erbringen.
  2. Klare Kommunikation: Es ist ratsam, mit Vorgesetzten abzusprechen, welche Erwartungen an Erreichbarkeit und Pausenzeiten bestehen.
  3. Einhaltung der Vorgaben: Falls im Unternehmen Regelungen zur Arbeitszeiterfassung existieren, sollten diese genau befolgt werden.
  4. Transparente Nutzung von Arbeitsmitteln: Falls private Internetnutzung erlaubt ist, sollte dies idealerweise klar mit dem Arbeitgeber abgestimmt sein.
  5. Rückfragen bei Unklarheiten: Falls Unsicherheiten hinsichtlich der Arbeitszeitgestaltung bestehen, sollte proaktiv beim Arbeitgeber oder Betriebsrat nachgefragt werden.

Fazit: Klare Regelungen sind essenziell

Das Urteil des LAG Rheinland-Pfalz zeigt, dass es für Arbeitgeber schwierig sein kann, Arbeitszeitbetrug im Homeoffice nachzuweisen. Ohne eine transparente Arbeitszeiterfassung und klare Homeoffice-Regelungen geraten Unternehmen leicht in eine Beweisschwierigkeit. Daher sollten Arbeitgeber präventiv handeln, um sowohl die Produktivität als auch die Rechtskonformität zu sichern.

Für Arbeitnehmer wiederum bedeutet dies, dass sie sich ihrer Verantwortung bewusst sein und im Homeoffice genauso gewissenhaft arbeiten sollten wie im Büro. Der Betriebsrat kann eine entscheidende Rolle dabei spielen, faire Regelungen zu etablieren und Arbeitnehmer vor ungerechtfertigten Vorwürfen zu schützen.

 

Freistellung

Freistellung

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Freistellung – Was ist eine Freistellung im Arbeitsrecht?

Die sogenannte Freistellung im Arbeitsrecht bedeutet, dass der Arbeitgeber bis zum Ablauf der Kündigungsfrist darauf verzichtet, den Arbeitnehmer weiterhin arbeiten zu lassen, ihm aber bis zum Ende des Arbeitsverhältnisses weiterhin den Lohn zahlt. Das bedeutet, dass der Arbeitnehmer von seiner Arbeitsleistung freigestellt ist und trotzdem sein Gehalt erhält. In der Praxis kommen solche Freistellungen häufig vor, da nach einer Kündigung das zwischenmenschliche Verhältnis in den meisten Fällen stark belastet ist. Oft möchten beide Seiten den Kontakt vermeiden. Zudem hat der Arbeitgeber ein Interesse daran, während der Freistellung den noch bestehenden Urlaubsanspruch des Arbeitnehmers anzurechnen.

Was, wenn der Arbeitnehmer doch arbeiten will?

Es kann jedoch vorkommen, dass der Arbeitnehmer weiterhin arbeiten möchte. Dies kann verschiedene Gründe haben. Beispielsweise könnte er seine Kollegen bis zum Abschluss eines Projekts nicht im Stich lassen oder sich von seinen bisherigen Geschäftspartnern angemessen verabschieden wollen. Ebenso könnte er es bevorzugen, seinen Urlaub nicht zu nehmen, sondern sich diesen stattdessen auszahlen zu lassen, um sich nach dem Ende des Arbeitsverhältnisses eine größere Reise leisten zu können. Die Gründe für den Wunsch, bis zum Vertragsende weiterzuarbeiten, können sehr unterschiedlich sein.

Geregelt oder nicht geregelt – die erste Frage!

Ein Blick in den Arbeitsvertrag bringt erste Klarheit. Entweder ist eine Freistellung bereits vertraglich vereinbart oder nicht. Falls eine korrekt formulierte Freistellungsklausel enthalten ist, kann der Arbeitgeber den Arbeitnehmer freistellen und während dieser Zeit den verbleibenden Urlaub sowie das Guthaben auf dem Arbeitszeitkonto anrechnen. Ist keine Klausel vorhanden, kann der Arbeitnehmer seinen Beschäftigungsanspruch durchsetzen. Dieser Anspruch wurde bereits 1955 vom Bundesarbeitsgericht bestätigt (BAG, Urteil vom 10.11.1955 – 2 AZR 591/54) und aus dem verfassungsrechtlichen Schutz der Persönlichkeit gemäß Art. 1 und 2 GG abgeleitet. Danach hat der Arbeitnehmer ein Recht auf eine Beschäftigung im Rahmen seines Arbeitsvertrags.

Nichts geregelt – Stillstand?

Hat der Arbeitnehmer im Arbeitsvertrag nicht ausdrücklich auf seinen Beschäftigungsanspruch verzichtet, bedeutet dies nicht, dass Arbeitgeber und Arbeitnehmer keine Regelung mehr treffen können. Beide Parteien können sich weiterhin einvernehmlich auf eine individuelle Regelung zur Freistellung einigen.

Erwerb von zusätzlichem Urlaub während der Freistellung?

Während der Zeit der Freistellung erwirbt der Arbeitnehmer keinen neuen Urlaubsanspruch. Dies ergibt sich daraus, dass der Urlaubsanspruch in direktem Zusammenhang mit der Erbringung der Arbeitsleistung steht. Da die Arbeitspflicht durch die Freistellung vollständig entfällt, kann für den Zeitraum der Freistellung kein zusätzlicher Urlaubsanspruch entstehen.

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Rückzahlung von Fortbildungskosten

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Arbeitgeberfinanzierte Fortbildung und Rückzahlungsklauseln – Ein Urteil des BAG

Es ist nicht selten, dass ein Arbeitgeber einem Arbeitnehmer die Fortbildung finanziert und ihn dabei finanziell unterstützt. Das Bundesarbeitsgericht (BAG) hat am 25. April 2023 über einen solchen Fall unter dem Aktenzeichen 9 AZR 187/22 entschieden.

Was war passiert?

Welcher konkrete Sachverhalt dem Urteil zugrunde liegt, ist nicht bekannt. Es könnte sich jedoch wie folgt zugetragen haben:

Maike Tasten ist seit einigen Jahren bei Bernd Buch als Buchhalterin angestellt. Möglicherweise kamen die beiden bei einem Kaffee in der Mittagspause auf die Idee, dass Maike bereits über umfassendes Wissen im Bereich der Steuerberatung verfügt und die Steuerberaterprüfung problemlos bestehen könnte. Bernd hatte bereits einige Buchhalter bei der Vorbereitung auf das anspruchsvolle Steuerberaterexamen unterstützt.

Maike fühlt sich durch das Lob geschmeichelt und erklärt sich bereit, die Prüfung abzulegen. Wenig später schließen beide einen Vertrag, den Bernd regelmäßig für solche Fälle verwendet – er ersetzt lediglich den Namen und den Förderbetrag im Vordruck. Der Vertrag enthält eine Rückzahlungsverpflichtung für den Fall, dass Maike:

  • innerhalb von 24 Monaten nach bestandener Prüfung das Unternehmen verlässt,
  • innerhalb von 24 Monaten nach nicht bestandener Prüfung das Unternehmen verlässt oder
  • die Prüfung wiederholt nicht ablegt.

Zudem enthält der Vertrag eine Härtefallregelung, nach der Maike im Falle einer dauerhaften Erkrankung oder der Pflege von Angehörigen für die Dauer der Verhinderung von der Rückzahlungspflicht befreit ist.

Beide unterschreiben den Vertrag, und Bernd übernimmt daraufhin fast 5.000 Euro an Ausbildungskosten. Allerdings tritt Maike nie zur Prüfung an und arbeitet inzwischen nicht mehr für Bernd. Dieser fordert nun sein Geld zurück und verklagt Maike auf Rückzahlung.

Die Entscheidung des BAG

Der Rechtsstreit begann 2021 vor dem Arbeitsgericht Lingen und wurde nun in letzter Instanz vom Bundesarbeitsgericht entschieden. Das BAG entschied, dass Maike die gezahlte Summe nicht zurückerstatten muss.

Der Grund: Bernd hatte mit der Vereinbarung sogenannte Allgemeine Geschäftsbedingungen (AGB) verwendet, die einer besonderen rechtlichen Prüfung unterliegen. Werden Vertragsbedingungen von einer Partei – in diesem Fall Bernd – für mehr als drei Vertragsabschlüsse genutzt, gelten sie als vorformulierte Vertragsbedingungen.

Sobald die „AGB-Tür“ geöffnet ist, muss nach § 305c Abs. 2, §§ 306, 307 bis 309 BGB geprüft werden, ob die Klauseln den anderen Vertragspartner unangemessen benachteiligen. Genau das hat das BAG getan und festgestellt, dass die Rückzahlungsklausel eine unangemessene Benachteiligung darstellt.

Das Gericht argumentiert, dass eine solche Klausel einen erheblichen Druck erzeugen kann, im bestehenden Arbeitsverhältnis zu verbleiben, und damit das Grundrecht auf freie Wahl des Arbeitsplatzes (Art. 12 Abs. 1 Satz 1 GG) einschränkt. Eine Rückzahlungspflicht muss daher einem berechtigten und schutzwürdigen Interesse des Arbeitgebers dienen und zugleich die möglichen Nachteile für den Arbeitnehmer angemessen ausgleichen.

Zudem ist zu berücksichtigen, dass die Rückzahlungspflicht nicht über die wirtschaftlichen Verhältnisse des Arbeitnehmers hinausgehen darf. Ein Arbeitnehmer mit einem durchschnittlichen Nettoeinkommen von 1.400 Euro kann beispielsweise nicht dazu verpflichtet werden, Ausbildungskosten in Höhe von 20.000 Euro auf einmal zurückzuzahlen.

Die Wertung der Interessen beider Parteien – ein fiktives Beispiel

Bernd ist verärgert. Eigentlich wollte er Maike nur unterstützen, doch nun bleibt er auf den Kosten sitzen, weil er ein standardisiertes Vertragsformular verwendet hat. „Maike ist fein raus, und am Ende ist der Unternehmer immer der Dumme!“, denkt er sich.

Maike wiederum hat sich entschieden, doch keine Steuerberaterin zu werden. Nach einer intensiven Selbstreflexion kam sie zu dem Schluss, dass sie lieber einen Beruf ergreifen möchte, bei dem sie direkt mit Menschen arbeitet. Sie absolviert nun eine Ausbildung zur Pflegefachkraft.

Die Kündigung bei Bernd fiel ihr schwer, da sie sich wegen der Ausbildungsvereinbarung und der möglichen Rückzahlung Sorgen machte. Erst die finanzielle Unterstützung ihrer Eltern ermutigte sie, diesen Schritt zu wagen.

Betrachtet man die Interessen beider Parteien, wird deutlich, dass Arbeitgebern viele Pflichten auferlegt werden. Sie tragen eine hohe Verantwortung für ihr Unternehmen und ihre Mitarbeiter. Bernd hat sich bewusst für die Selbstständigkeit entschieden und nimmt die damit verbundenen Herausforderungen in Kauf.

Maike hingegen bevorzugt die Sicherheit eines Angestelltenverhältnisses. Sie schätzt die Planbarkeit eines festen Gehalts und nimmt dafür in Kauf, Weisungen eines Arbeitgebers zu befolgen, feste Arbeitszeiten einzuhalten und Urlaub nach Vorgabe zu nehmen.

Zwischen den beiden besteht nicht nur ein arbeitsrechtliches Verhältnis – mit Bernd als weisungsbefugtem Arbeitgeber und Maike als weisungsgebundener Arbeitnehmerin –, sondern auch ein zwischenmenschliches Machtgefälle. Damit dieses Machtverhältnis ausgewogen bleibt, sind Entscheidungen wie die des BAG erforderlich.

Hätte Maike nicht auf die finanzielle Unterstützung ihrer Eltern zählen können, wäre sie möglicherweise gezwungen gewesen, die Ausbildung abzuschließen und noch zwei Jahre bei Bernd zu arbeiten – ungeachtet ihrer eigentlichen Wünsche.

Natürlich könnte man einwenden, dass sie sich der Rückzahlungsverpflichtung bewusst gewesen sein muss. Doch was wäre gewesen, wenn sie von Anfang an abgelehnt hätte? Hätte Bernd ihr dann möglicherweise gekündigt?

Das Arbeitsrecht und die Rechtsprechung des BAG zielen darauf ab, durch einheitliche Kriterien eine gerechte Balance zwischen den Interessen von Arbeitnehmern und Arbeitgebern herzustellen. Der Wermutstropfen liegt in der Tat oft beim Arbeitgeber, da er die Verantwortung trägt.

 

 

Cookie Consent mit Real Cookie Banner