Seite wählen
BGH-Urteil zur Einschränkung der Abrufbarkeit personenbezogener Daten im Vereinsregister

BGH-Urteil zur Einschränkung der Abrufbarkeit personenbezogener Daten im Vereinsregister

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Am 4. Juni 2024 entschied der Bundesgerichtshof (BGH) über die Frage, ob ein ehemaliges Vereinsvorstandsmitglied einen Anspruch auf Löschung oder zumindest Einschränkung der Abrufbarkeit seiner personenbezogenen Daten aus dem Vereinsregister hat (BGH, Beschluss vom 4.6.2024 – II ZB 10/23, NJW 2025, 351).

Hintergrund des Verfahrens

Der Antragsteller war bis 2004 Vorstandsvorsitzender eines eingetragenen Vereins. Nach seinem Ausscheiden blieben seine personenbezogenen Daten, darunter Vorname, Nachname, Geburtsdatum und Wohnort, weiterhin öffentlich im Vereinsregister abrufbar. Er beantragte beim Registergericht die Löschung bzw. die Einschränkung der Abrufbarkeit dieser Daten mit Verweis auf Art. 17 Abs. 1 Datenschutz-Grundverordnung (DS-GVO). Das Amtsgericht Bonn (Beschluss vom 27.3.2023, 20 VR 4257, BeckRS 2023, 52322) und das Oberlandesgericht Köln (NZG 2024, 80) wiesen den Antrag zurück, woraufhin der Antragsteller Rechtsbeschwerde beim BGH einlegte.

Entscheidung des BGH

Der BGH entschied, dass der Antragsteller keinen Anspruch auf eine vollständige Löschung seiner Daten habe, wohl aber auf eine Einschränkung der Abrufbarkeit. Die Speicherung personenbezogener Daten im Vereinsregister sei grundsätzlich zulässig, da sie den öffentlichen Informationsinteressen diene. Nach § 79 Abs. 1 BGB iVm § 33 Vereinsregisterverordnung (VRV) seien diese Daten für jedermann abrufbar. Allerdings sei die Bereitstellung zum uneingeschränkten Abruf im Internet nicht uneingeschränkt mit der DS-GVO vereinbar. Art. 17 Abs. 1 DS-GVO könne in bestimmten Fällen eine Löschung oder Einschränkung der Verarbeitung personenbezogener Daten erfordern. Ein Anspruch auf Löschung bestehe jedoch nur dann, wenn keine rechtlichen Gründe mehr für die Speicherung vorliegen. § 79 Abs. 1 und 2 BGB müssten im Lichte der DS-GVO restriktiv ausgelegt werden. Der BGH entschied daher, dass die Abrufbarkeit der Daten des Antragstellers auf Fälle eines dargelegten berechtigten Interesses beschränkt werden müsse. Diese Entscheidung ist insbesondere deshalb wichtig, weil die Regelungen zur Transparenz und Rechtssicherheit aus einer analogen Zeit stammen. Früher konnte ein Registerauszug nicht auf Knopfdruck erhalten werden, sondern musste kostenpflichtig beantragt werden. Heute hingegen sind massenhafte Abrufe innerhalb kürzester Zeit möglich, ohne dass die abrufende Person ein berechtigtes Interesse nachweisen muss. Dies öffnet Tür und Tor für Missbrauch, da die personenbezogenen Daten weltweit uneingeschränkt zugänglich sind.

Bedeutung der Entscheidung

Diese Entscheidung ist von erheblicher Bedeutung für den Datenschutz in Deutschland.

Zukünftig wird es wohl möglich sein, dass ehemalige Vorstandsmitglieder von Vereinen eine Einschränkung der Veröffentlichung ihrer Daten beantragen können. Dabei wird es aber nach der Entscheidung des BGH immer auf eine einzelfallbezogene Abwägung ankommen, insbesondere auf die Dauer seit dem Ausscheiden aus dem Amt. Hier wäre letztlich eine klare gesetzliche Regelung notwendig. Die Praxis, dass diese Daten heute ohne Weiteres und weltweit einsehbar sind, ist problematisch und öffnet Missbrauchsmöglichkeiten, die es in analogen Zeiten nicht gab erfordert dringend ein Umdenken.

Die Entscheidung war überfällig und wäre eigentlich unnötig gewesen, wenn der Gesetzgeber seinem Schutzauftrag nachgekommen wäre. Dies ist besonders wichtig im Hinblick auf das Geburtsdatum, denn dieses ist eine sehr sensible persönliche Information über eine Person. Diese sollte eigentlich niemals ohne Einschränkungen im Internet zugänglich sein!

 

Datenschutzverletzungen richtig melden – Neue EDSA-Leitlinien einfach erklärt

Datenschutzverletzungen richtig melden – Neue EDSA-Leitlinien einfach erklärt

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Datenschutz ist ein wichtiges Thema, das Unternehmen und Organisationen unbedingt ernst nehmen sollten. Die neuen Leitlinien 9/2022 des Europäischen Datenschutzausschusses (EDSA) geben klare Vorgaben zur Meldung von Datenschutzverletzungen gemäß der DSGVO. Diese Leitlinien wurden am 28. März 2023 aktualisiert und präzisieren insbesondere die Meldepflichten für Verantwortliche außerhalb der EU. Doch was bedeutet das konkret für Unternehmen und betroffene Personen?

Was ist eine Datenschutzverletzung?

Eine Datenschutzverletzung liegt vor, wenn personenbezogene Daten verloren, offengelegt oder manipuliert werden. Die DSGVO unterscheidet zwischen drei Arten von Verstößen:

  • Verletzung der Vertraulichkeit – Unbefugte erhalten Zugang zu Daten.
  • Verletzung der Integrität – Daten werden verändert oder manipuliert.
  • Verletzung der Verfügbarkeit – Daten gehen verloren oder sind nicht mehr zugänglich.

Beispiele für solche Vorfälle sind Hackerangriffe, gestohlene Laptops oder versehentlich veröffentlichte Daten.

Meldung an die Aufsichtsbehörde: Wann und wie?

Art. 33 DSGVO schreibt vor, dass Verantwortliche eine Datenschutzverletzung innerhalb von 72 Stunden nach Bekanntwerden der Aufsichtsbehörde melden müssen. Die Meldung kann schrittweise erfolgen, falls nicht sofort alle Informationen vorliegen. Folgende Informationen müssen übermittelt werden:

  • Art der Datenschutzverletzung
  • Anzahl der betroffenen Personen und Datensätze
  • Mögliche Folgen der Verletzung
  • Bereits ergriffene Maßnahmen zur Schadensbegrenzung

Wann ist keine Meldung erforderlich?

Nicht jede Datenschutzverletzung muss gemeldet werden. Ausnahmen gelten, wenn kein Risiko für die betroffenen Personen besteht. Zum Beispiel, wenn die Daten stark verschlüsselt waren und somit für Dritte unbrauchbar sind.

Benachrichtigung der Betroffenen gemäß Artikel 34 DSGVO

Ist eine Datenschutzverletzung mit hohem Risiko verbunden, müssen betroffene Personen sofort informiert werden. Dies ist wichtig, um ihnen die Möglichkeit zu geben, sich selbst vor möglichen Schäden zu schützen. Unternehmen müssen die Information in klarer und einfacher Sprache bereitstellen und Kontaktmöglichkeiten für Rückfragen angeben.

Ausnahmen von der Benachrichtigungspflicht gibt es, wenn:

  •  Angemessene Sicherheitsmaßnahmen wie Verschlüsselung bestanden.
  • Unmittelbare Maßnahmen das Risiko bereits minimiert haben.
  • Eine individuelle Benachrichtigung unverhältnismäßigen Aufwand bedeuten würde.

 

Praktische Umsetzung für Unternehmen

Um Datenschutzverletzungen frühzeitig zu erkennen und effektiv zu managen, sollten Unternehmen klare Notfallpläne haben. Dazu gehören:

  • Interne Meldeprozesse: Schulung der Mitarbeiter zur schnellen Erkennung von Vorfällen.
  • Technische Schutzmaßnahmen: Firewalls, Verschlüsselung und Zugriffsbeschränkungen.
  • Dokumentation von Vorfällen: Auch nicht meldepflichtige Datenschutzverletzungen sollten intern erfasst werden, um Verbesserungen abzuleiten.

Fazit

Die neuen EDSA-Leitlinien verdeutlichen, dass der Schutz personenbezogener Daten eine zentrale Pflicht für Unternehmen ist. Die korrekte Meldung und Dokumentation von Datenschutzverletzungen kann nicht nur Strafen vermeiden, sondern auch das Vertrauen von Kunden und Partnern stärken. Unternehmen sollten sich aktiv mit den Vorgaben auseinandersetzen und ihre Datenschutzprozesse kontinuierlich verbessern.

Vorsorge ist immer besser als Nachsorge:  Prüfen Sie Ihre Datenschutzstrategie und stellen Sie sicher, dass Ihr Unternehmen auf mögliche Verstöße vorbereitet ist.

Die Fastnacht im 15. Jahrhundert in Nürnberg: Ein Spiegel gesellschaftlicher Missstände und früher #MeToo-Momente

Die Fastnacht im 15. Jahrhundert in Nürnberg: Ein Spiegel gesellschaftlicher Missstände und früher #MeToo-Momente

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Die Ursprüngen der Fastnacht und ihrer Bräuche sind in der Wissenschaft umstritten. Es gibt verschiedene Theorien zur Herleitung, doch eine deutliche Verbindung zu den kirchlichen Mysterienspielen und den römischen Saturnalien ist erkennbar. Jaques Heers bemerkt dazu: „Es mag verwunderlich oder gar paradox erscheinen, aber die Narrenfeste, Feiern der Unordnung, der auf den Kopf gestellten Hierarchien, haben sich ausnahmslos in kirchlichen Kreisen entfaltet.“ (Heers, Vom Mummenschantz und Machttheater, S.37.) Die Fastnacht ist also keineswegs ein rein weltliches Vergnügen, sondern wurzelt in religiösen Festen, in denen soziale Ordnungen temporär aufgehoben wurden.

Im späten Mittelalter spielte Nürnberg eine bedeutende Rolle bei der Entwicklung der städtischen Fastnacht. Die Fastnacht diente nicht nur als Zeit des ausgelassenen Feierns, sondern auch als Ventil für gesellschaftliche Kritik. Besonders die Fastnachtsspiele waren eine bühnenhafte Darstellung von Missständen und sozialen Ungerechtigkeiten. Dazu gehörten auch Themen wie sexuelle Belästigung von Frauen, die damals wie heute eine traurige Realität waren. Dies lässt sich in Werken von Hans Folz nachweisen, einem bekannten Meistersinger und Fastnachtsspielautor des 15. Jahrhunderts.

Frauen und Fastnacht: Schutzlos selbst in Männerkleidung

In einem Fastnachtsspiel von Hans Folz wird eine Gerichtsverhandlung inszeniert, in der die personifizierte Fastnacht angeklagt wird. Eine besondere Rolle spielt hierbei die Anwältin der Frauen, die vor Gericht das Wort führt. Dies ist eine bemerkenswerte Besonderheit, denn im mittelalterlichen Nürnberg waren Frauen als Anwälte nicht zugelassen. Redner vor Gericht waren ausnahmslos Männer. Der Grund, warum der Verfasser dennoch eine Frau als Anklägerin einsetzte, liegt vermutlich in einem Interessenkonflikt: Ein Mann hätte sich schwerlich glaubwürdig gegen das Verhalten seines eigenen Geschlechts aussprechen können, ohne sich selbst und seine Geschlechtsgenossen anzuklagen. Die Lösung bestand also darin, eine Frau das Wort führen zu lassen.

Die Anwältin klagt unter anderem an, dass Frauen sich nicht einmal durch das Tragen von Männerkleidung vor sexueller Belästigung schützen konnten. Sobald sie „entlarvt“ wurden, waren sie dem männlichen Zugriff schutzlos ausgeliefert:

„Leg wir dann mannes kleider an vnd mayn, dest sichrer gan, sobald sie erfarn einer oder zwen, so wils keiner allein lassen gan. Jgklicher spricht: wol auff, ge mit mir!“ (Nürnberger Fastnachtspiele des 15. Jahrhunderts von Hans Folz und seinem Umkreis. Edition und Kommentar. Herausgegeben von: Stefan Hannes Greil und Martin Przybilski. In Zusammenarbeit mit: Theresia Biehl , Christoph Gerhardt und Mark Ritz, S. 387-407, S. 398)

Dieses Zitat verdeutlicht, dass Frauen trotz Verkleidung nicht sicher vor Übergriffen waren. Die Fastnacht bot einen Raum, in dem Männer sich ermutigt fühlen konnten, Frauen sexuell zu belästigen. Dies lässt sich als eine frühe Form eines #MeToo-Moments interpretieren.

Die personifizierte Fastnacht als Angeklagte

Interessanterweise werden in dem Fastnachtsspiel nicht die Männer direkt angeklagt, sondern die personifizierte Fastnacht selbst. Dabei wird die Fastnacht weiblich dargestellt, was bereits in der deutschen Sprache mit dem weiblichen Artikel „die Fastnacht“ angedeutet wird. In ihrer Verteidigung argumentiert sie, dass sie selbst nichts für das Verhalten der Männer könne und dass die Fastnacht lediglich ein Fest der Freude und des ausgelassenen Feierns sei. Der Verfasser des Stücks lenkt so die Verantwortung von den einzelnen Tätern weg und macht die Fastnacht als institutionelles Ereignis zum Mittelpunkt der Anklage.

Der Richter, der die Verhandlung leitet, hört nicht nur die Frauen an, sondern auch Vertreter aller sozialen Stände: Adel, Bauern, Bürger und Handwerker klagen die Fastnacht an. Doch schließlich entscheidet er zugunsten der Fastnacht, da das Feiern als alter Brauch geschätzt wird und nicht abgeschafft werden soll. Dieses Urteil zeigt die Ambivalenz der Fastnacht: Einerseits ist sie eine Zeit der Kritik und der Aufhebung gesellschaftlicher Normen, andererseits genießt sie eine Art Schutzstatus als Tradition, sodass sie trotz berechtigter Einwände nicht infrage gestellt wird.

Tradition ./. Recht auf eine sichere Feier?

Die Fastnacht galt traditionell als eine Zeit, in der Normen und Hierarchien aufgehoben wurden. Doch in dieser Umkehrung der Ordnung lag auch die Gefahr für Frauen, noch wehrloser zu sein als ohnehin schon. Während die Verkleidung in gewisser Weise Schutz versprach, wurde sie nach ihrer Aufdeckung zur Einladung für Übergriffe.

Parallelen zur Gegenwart

Die Problematik sexueller Belästigung ist kein modernes Phänomen. Was wir heute unter #MeToo zusammenfassen, hatte bereits im Mittelalter einen Platz in der gesellschaftlichen Realität. Die Fastnachtsspiele und ihre Darstellungen von Frauen in einer schutzlosen Rolle zeigen, dass das Problem der sexuellen Übergriffigkeit kein neues ist.

Die Tatsache, dass bereits in den Fastnachtsspielen des 15. Jahrhunderts sexuelle Belästigung thematisiert wurde, zeigt, dass das Bewusstsein für diese Problematik keineswegs erst in der Moderne entstanden ist. Das Mittelalter mag vergangen sein, doch der Kampf gegen sexuelle Gewalt ist und bleibt aktuell. Die Geschichte zeigt, dass sexuelle Belästigung gegen Frauen ein Dauerthema seit Jahrhunderten ist. Der Kampf gegen sexuelle Belästigung ist nicht nur eine Aufgabe der Betroffenen, sondern eine gesellschaftliche Verantwortung.

Orientierungshilfe der DSK zur datenschutzkonformen Nutzung von KI

Orientierungshilfe der DSK zur datenschutzkonformen Nutzung von KI

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Die Nutzung von Künstlicher Intelligenz (KI) bringt zahlreiche Chancen, aber auch Herausforderungen mit sich – insbesondere im Hinblick auf den Datenschutz. Unternehmen, Behörden und andere Organisationen stehen vor der Frage, wie sie KI-Anwendungen datenschutzkonform einsetzen können. Die Datenschutzkonferenz (DSK), bestehend aus den unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder, hat daher am 6. Mai 2024 eine Orientierungshilfe zu KI und Datenschutz veröffentlicht.

Zielgruppe der Orientierungshilfe

Die Orientierungshilfe richtet sich vorrangig an Unternehmen und Behörden, die KI-Anwendungen in ihren Arbeitsprozessen nutzen oder einführen möchten. Sie bietet einen praxisnahen Leitfaden, um Datenschutzanforderungen einzuhalten und Risiken zu minimieren. Auch Personen, die KI-Systeme entwickeln, herstellen oder bereitstellen, finden hier wertvolle Hinweise, um datenschutzfreundliche Lösungen zu konzipieren. Die Orientierungshilfe ist kein abschließender Anforderungskatalog, sondern eine laufend aktualisierte Empfehlung, die an neue technologische und rechtliche Entwicklungen angepasst wird.

Inhaltlicher Überblick

Die Orientierungshilfe ist sehr umfangreich und behandelt verschiedene Aspekte des Datenschutzes bei der Nutzung von KI. Dabei konzentriert sie sich besonders auf Large Language Models (LLMs), die in den letzten Jahren verstärkt zum Einsatz kommen – sei es als Chatbots oder als Grundlage für weitere Anwendungen.

  1. Auswahl und Konzeption von KI-Anwendungen

Bevor eine KI-Anwendung genutzt wird, sollten Organisationen klar definieren, für welche Zwecke sie eingesetzt werden soll und ob personenbezogene Daten verarbeitet werden. Hierbei sind folgende Fragen entscheidend:

  • Ist der Einsatz der KI rechtlich zulässig?
  • Werden personenbezogene Daten benötigt, oder kann die Anwendung ohne sie betrieben werden?
  • Ist die Verarbeitung von sensiblen Daten, wie Gesundheits- oder biometrischen Daten, überhaupt erlaubt?

Ein besonderes Augenmerk liegt darauf, dass keine automatisierten Letztentscheidungen getroffen werden, da diese nach der Datenschutz-Grundverordnung (DSGVO) nur in engen Ausnahmefällen zulässig sind.

  1. Implementierung von KI in den Arbeitsalltag

Nach der Auswahl einer KI-Anwendung muss sichergestellt werden, dass sie sicher und rechtskonform integriert wird. Dazu gehören unter anderem:

  • Verantwortlichkeiten klären: Wer entscheidet über den Einsatz und die Datenverarbeitung?
  • Datenschutz-Folgenabschätzung durchführen: Falls ein hohes Risiko für Betroffene besteht, muss geprüft werden, welche Maßnahmen notwendig sind.

Nehmt die Leute mit! Es ist wichtig, die Beschäftigten zu sensibilisieren und in den Prozess einzubeziehen. Unternehmen sollten klare Regeln für den Umgang mit KI aufstellen, das Personal schulen und aktiv in die Entwicklung einbinden. Auch der Betriebsrat sollte von Beginn an involviert sein.

Außerdem betont die Orientierungshilfe, dass KI-Systeme am besten als geschlossene Systeme betrieben werden sollten, um Datenschutzrisiken zu minimieren. Offene Systeme, insbesondere solche, die Eingaben für weiteres Training verwenden, sind mit zusätzlichen Herausforderungen verbunden.

  1. Nutzung von KI-Anwendungen

Auch während des laufenden Betriebs gibt es zahlreiche Datenschutzaspekte zu beachten:

  • Transparenz: Nutzende müssen darüber informiert werden, welche Daten verarbeitet werden und wofür.
  • Richtigkeit der Ergebnisse überprüfen: KI-generierte Inhalte können fehlerhaft oder sogar diskriminierend sein. Daher sollte ihre Nutzung immer kritisch hinterfragt werden.
  • Betroffenenrechte umsetzen: Personen haben ein Recht auf Berichtigung, Löschung und Auskunft über ihre Daten. Unternehmen müssen technische Lösungen finden, um diese Rechte durchzusetzen.

Gerade im Umgang mit sensiblen Daten warnt die DSK davor, unkritisch auf KI-Modelle zu vertrauen, da diese Falschinformationen oder diskriminierende Vorurteile enthalten können.

Ein dynamischer Leitfaden für die Zukunft

Die Datenschutzkonferenz hebt hervor, dass die Orientierungshilfe fortlaufend weiterentwickelt wird, um den sich ändernden rechtlichen und technischen Rahmenbedingungen gerecht zu werden. Die rasanten Fortschritte im Bereich KI machen es notwendig, datenschutzrechtliche Anforderungen regelmäßig zu überprüfen und neue Risiken frühzeitig zu erkennen.

BGH-Urteil zur Einschränkung der Abrufbarkeit personenbezogener Daten im Vereinsregister

Kein Feststellungsinteresse des Sozialversicherungsträgers für eine Erbenfeststellungsklage

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Der Bundesgerichtshof hat entschieden (Beschluss vom 2. November 2022, Az. IV ZR 39/22), dass ein Sozialhilfeträger keinen direkten Einfluss auf erbrechtliche Entscheidungen nehmen kann, selbst wenn wirtschaftliche Interessen im Raum stehen. Dem Sozialhilfeträger fehlt für eine solche Feststellung das sogenannte rechtliche Interesse. Er kann nicht feststellen lassen, dass eine Sozialleistungsbezieherin Erbin ist und die Erbschaft nicht wirksam zugunsten ihrer Kinder ausschlagen kann.

 Der Fall

Die Erbin hatte Sozialleistungen nach dem SGB II erhalten. Sie schlug die Erbschaft aus, nachdem ihre Mutter verstorben war. Dadurch wurden ihre Kinder Erben. Der zuständige Sozialversicherungsträger, der über Jahre hinweg finanzielle Leistungen gewährt hatte, wollte daraufhin gerichtlich feststellen lassen, dass die Sozialleistungsempfängerin dennoch Erbin geworden ist. Ziel war es, Rückzahlungsansprüche gegen sie geltend zu machen.

Rechtliche Beurteilung durch den BGH

Der BGH hat entschieden, dass dem Sozialversicherungsträger kein rechtliches Feststellungsinteresse nach § 256 ZPO zusteht. Das Recht zur Ausschlagung einer Erbschaft ist ein höchstpersönliches Recht des Erben und kann nicht auf Dritte übergehen – auch nicht auf einen Sozialleistungsträger. Ein Sozialhilfeträger hat zwar möglicherweise ein wirtschaftliches Interesse an der Erbenstellung, doch dieses allein genügt nicht, um ein Feststellungsinteresse im juristischen Sinne zu begründen. Die Klage wurde daher als unzulässig abgewiesen. 

Was ist ein höchstpersönliches Recht ?

Dies ist ein Recht, das ausschließlich von einer bestimmten Person selbst ausgeübt werden kann. Es ist also nicht übertragbar, vererbbar oder durch eine andere Person wahrnehmbar. Solche Rechte betreffen sehr persönliche Entscheidungen und können nur von der betroffenen Person selbst ausgeübt werden. Ein Beispiel dafür ist das Recht zur Eheschließung nach § 1311 BGB. Nur die beiden Partner können eine Ehe eingehen, niemand kann dies stellvertretend für sie tun. Auch das Recht zur Erbausschlagung nach § 1942 BGB zählt dazu, wie dies der BGH bestätigt hat. Ein weiteres höchstpersönliches Recht ist die Testierfreiheit nach § 1937 BGB. Jeder kann in einem Testament frei bestimmen, wer sein Erbe wird, und niemand kann ihm diese Entscheidung abnehmen oder für ihn ein Testament verfassen.

Folgen für Erben und Sozialversicherungsträger

Der Beschluss des BGH stellt klar, dass Sozialleistungsbezieher frei entscheiden können, ob sie eine Erbschaft annehmen oder ausschlagen. Sie müssen nicht befürchten, dass ein Sozialhilfeträger dies nachträglich angreift. Der BGH bestätigt, dass die Erbausschlagung ein unantastbares, persönliches Recht des Erben bleibt.

Der Einsatz von Keyloggern am Arbeitsplatz

Der Einsatz von Keyloggern am Arbeitsplatz

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Der Einsatz von Keyloggern am Arbeitsplatz

 

Definition und Funktionsweise eines Keyloggers

Ein Keylogger ist eine Software oder ein Hardwaregerät, das sämtliche Tastatureingaben eines Computers aufzeichnet. Dies kann zur umfassenden Überwachung der Nutzung eines Computers durch den Arbeitgeber eingesetzt werden. Neben der Kontrolle, welche Tätigkeiten ein Arbeitnehmer während seiner Arbeitszeit ausführt, kann ein Keylogger auch dazu dienen, die Geschwindigkeit und Effizienz der Arbeitsweise zu analysieren. Durch die Aufzeichnung von Tastenanschlägen und die Erfassung von Zeitintervallen zwischen den Eingaben lassen sich detaillierte Rückschlüsse auf die Arbeitsweise eines Mitarbeiters ziehen.

Sachverhalt des Urteils (BAG, Urteil vom 27. Juli 2017 – 2 AZR 681/16)

Im vorliegenden Fall ging es um einen Webentwickler, der seit 2011 bei einem Unternehmen tätig war. Der Arbeitgeber hatte auf dem Dienst-PC des Mitarbeiters einen Keylogger installiert, ohne diesen zuvor konkret über diese Maßnahme zu informieren. Die durch den Keylogger erfassten Daten zeigten, dass der Arbeitnehmer während der Arbeitszeit private Tätigkeiten ausführte, darunter die Entwicklung eines Computerspiels sowie das Bearbeiten geschäftlicher E-Mails für das Unternehmen seines Vaters. Dies führte zur außerordentlichen fristlosen Kündigung des Arbeitnehmers. Der Arbeitnehmer klagte gegen die Kündigung und argumentierte, dass die Überwachungsmaßnahme gegen sein Grundrecht auf informationelle Selbstbestimmung verstoße und damit unzulässig sei.

Entscheidung des Bundesarbeitsgerichts

Das Bundesarbeitsgericht (BAG) entschied mit Urteil vom 27. Juli 2017 (Az. 2 AZR 681/16), dass die Kündigung des Arbeitnehmers unwirksam sei, da die durch den Keylogger gewonnenen Erkenntnisse einem Verwertungsverbot unterliegen. Nach der Entscheidung verstößt die heimliche Erfassung und Speicherung von Tastatureingaben gegen das allgemeine Persönlichkeitsrecht des Arbeitnehmers, das sich aus Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 Grundgesetz (GG) ergibt.

Die zentralen rechtlichen Erwägungen des Gerichts waren, dass die Überwachung durch einen Keylogger einen tiefgreifenden Eingriff in das allgemeine Persönlichkeitsrecht des Arbeitnehmers darstellt. Ein solcher Eingriff ist nur dann zulässig, wenn ein durch konkrete Tatsachen begründeter Verdacht auf eine Straftat oder eine schwerwiegende Pflichtverletzung besteht. Eine allgemeine Kontrolle der Arbeitsweise oder der Arbeitsgeschwindigkeit ohne einen spezifischen Verdacht wird als unverhältnismäßig angesehen und ist nicht durch § 32 Abs. 1 des Bundesdatenschutzgesetzes (BDSG a.F.) gerechtfertigt. Da die durch den Keylogger gewonnenen Erkenntnisse unter Verstoß gegen diese Grundsätze erlangt wurden, unterliegen sie einem Verwertungsverbot und dürfen im Kündigungsschutzprozess nicht berücksichtigt werden.

Interessenabwägung zwischen Arbeitgeber und Arbeitnehmer

Die Entscheidung des BAG zeigt die grundlegende Abwägung zwischen dem berechtigten Interesse des Arbeitgebers an der Überwachung der Arbeitsleistung und den Rechten der Arbeitnehmer auf Datenschutz und Privatsphäre.

Argumente zugunsten des Arbeitgebers

  • Arbeitgeber haben ein legitimes Interesse daran, die Arbeitszeit ihrer Angestellten effizient zu nutzen und Verstöße gegen betriebliche Vorgaben zu ahnden.
  • Die Kontrolle von Arbeitsgeschwindigkeit und -qualität ist insbesondere in digitalisierten Arbeitsbereichen relevant, in denen Produktivität häufig anhand von Tastatureingaben, Bearbeitungszeiten oder Nutzeraktivitäten gemessen wird.
  • In sicherheitskritischen Branchen oder bei besonders sensiblen Daten kann eine lückenlose Kontrolle helfen, Regelverstöße oder Datenmissbrauch frühzeitig zu erkennen.
  • Eine unkontrollierte private Nutzung betrieblicher IT-Systeme kann nicht nur die Arbeitsleistung, sondern auch die Sicherheit von Unternehmensnetzwerken gefährden.
  • Das Urteil könnte dazu führen, dass Arbeitgeber weniger Möglichkeiten haben, sich gegen unerlaubte private Nutzung oder ineffiziente Arbeitsweisen zur Wehr zu setzen.

Argumente zugunsten des Arbeitnehmers

  • Auf der anderen Seite schützt die Entscheidung des Gerichts das Grundrecht der Arbeitnehmer auf informationelle Selbstbestimmung und Privatheit im Arbeitsverhältnis.
  • Eine ständige Überwachung durch Keylogger könnte Arbeitnehmer einem unzumutbaren Anpassungsdruck aussetzen, da sie jederzeit mit einer vollständigen Kontrolle ihrer Arbeitsweise rechnen müssen.
  • Die Erfassung von Tastatureingaben gibt nicht nur Aufschluss über die Produktivität, sondern kann auch private oder hochsensible Informationen wie Passwörter oder persönliche E-Mails aufzeichnen.
  • Arbeitnehmer sollten nicht pauschal unter Verdacht gestellt werden; eine Überwachung darf nur erfolgen, wenn konkrete Verdachtsmomente vorliegen.

Schlusspunkt

Die Entscheidung des BAG setzt klare Grenzen für den Einsatz von Keyloggern im Arbeitsverhältnis. Arbeitgeber müssen vor der Implementierung solcher Überwachungstechnologien sicherstellen, dass eine rechtliche Grundlage für deren Einsatz besteht und die Maßnahme verhältnismäßig ist. Das Urteil macht deutlich, dass eine verdachtsunabhängige, vollständige Überwachung der Arbeitsweise von Beschäftigten nicht zulässig ist. Gleichzeitig bleibt es Arbeitgebern möglich, in begründeten Fällen gezielte Kontrollmaßnahmen zu ergreifen.

Ruhe bewahren bei Anfragen von Ermittlungsbehörden

Ruhe bewahren bei Anfragen von Ermittlungsbehörden

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Wenn eine Ermittlungsbehörde, wie die Polizei oder Staatsanwaltschaft, eine Anfrage zur Herausgabe personenbezogener Daten stellt, ist es wichtig, Ruhe zu bewahren und nicht übereilt zu handeln. Eine sofortige Herausgabe von Daten ist nur dann erforderlich, wenn Gefahr in Verzug besteht. Das bedeutet, dass ein sofortiges Handeln unabdingbar ist, um eine drohende erhebliche Gefahr für Leib, Leben oder bedeutende Rechtsgüter abzuwenden. In allen anderen Fällen sollte eine sorgfältige Prüfung der rechtlichen Voraussetzungen erfolgen.

Wann dürfen Daten weitergegeben werden?

Personenbezogene Daten unterliegen strengen Schutzbestimmungen nach der DSGVO und dem BDSG. Eine Weitergabe ist grundsätzlich nur erlaubt, wenn eine gesetzliche Grundlage besteht. Besonders relevant ist hier § 24 Abs. 1 Nr. 1 BDSG, wonach eine Datenweitergabe zulässig ist, wenn sie „zur Verhütung oder Verfolgung von Straftaten erforderlich ist“. Dies bedeutet, dass die Herausgabe zwingend notwendig sein muss und keine milderen Alternativen bestehen dürfen.

Besondere Pflichten von Sozialpädagogen

Sozialpädagogen und ihre Berufshelfer unterliegen nach § 203 StGB der Verschwiegenheitspflicht. Eine unbefugte Weitergabe von vertraulichen Informationen ist strafbar. Deshalb dürfen sie Auskünfte grundsätzlich nur gegenüber der Staatsanwaltschaft oder dem Gericht machen, nicht jedoch gegenüber der Polizei, es sei denn, eine ausdrückliche gesetzliche Grundlage liegt vor.

Wie sollte man vorgehen?

Falls eine Anfrage einer Ermittlungsbehörde eingeht, sollten folgende Schritte beachtet werden:

  • Schriftliche Anfrage anfordern: Lassen Sie sich die Anfrage immer schriftlich mit Angabe der Rechtsgrundlage geben.
  • Rechtliche Prüfung vornehmen: Prüfen Sie, ob eine Herausgabe tatsächlich erforderlich und rechtlich zulässig ist.
  • Intern dokumentieren: Jede Anfrage und Entscheidung sollte sorgfältig dokumentiert werden.
  • Daten sicher übermitteln: Falls eine Weitergabe erfolgt, sollten die Daten nur verschlüsselt und passwortgeschützt übermittelt werden.
  • Betroffenen informieren: Nach Art. 14 DSGVO besteht eine Informationspflicht gegenüber dem Betroffenen, es sei denn, die Staatsanwaltschaft ordnet eine Geheimhaltung an.

Fazit

Bei Anfragen von Ermittlungsbehörden gilt: Besonnen handeln, Rechtsgrundlagen prüfen und dokumentieren. Nur wenn Gefahr in Verzug besteht, ist ein sofortiges Handeln notwendig. In allen anderen Fällen sollte die Herausgabe personenbezogener Daten erst nach sorgfältiger Prüfung erfolgen, um rechtliche Konsequenzen zu vermeiden.

 

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Das Bundesarbeitsgericht (BAG) entschied am 28. Januar 2025 (Az. 1 AZR 33/24), dass ein Arbeitgeber nicht verpflichtet ist, der tarifzuständigen Gewerkschaft die dienstlichen E-Mail-Adressen seiner Beschäftigten zum Zweck der Mitgliederwerbung mitzuteilen.

Die klagende Gewerkschaft wollte im Betrieb der Beklagten digitale Werbemaßnahmen durchführen und forderte hierfür unter anderem die Übermittlung der E-Mail-Adressen aller Arbeitnehmer, Zugang zum konzernweiten Netzwerk sowie eine Verlinkung ihrer Webseite im Intranet der Beklagten.

Wie bereits die Vorinstanz, das Landesarbeitsgericht Nürnberg (Urteil vom 26. September 2023 – 7 Sa 344/22), wies auch das BAG die Klage ab. Es stellte fest, dass die Koalitionsbetätigungsfreiheit nach Art. 9 Abs. 3 GG nicht dazu verpflichtet, der Gewerkschaft einen direkten Zugang zu den internen digitalen Kommunikationsmitteln des Unternehmens zu gewähren. Eine solche Forderung kollidiere mit den Grundrechten des Arbeitgebers und der Arbeitnehmer, insbesondere mit deren Datenschutzrechten.

Die Entscheidung betont, dass Gewerkschaften die Möglichkeit haben, Arbeitnehmer vor Ort nach ihrer betrieblichen E-Mail-Adresse zu fragen, um so ihre Werbemaßnahmen durchzuführen.

BGH-Urteil zum Datenschutz: Kontrollverlust über Daten als Schaden

BGH-Urteil zum Datenschutz: Kontrollverlust über Daten als Schaden

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

BGH-Urteil zum Datenschutz: Kontrollverlust über Daten als Schaden

Der Bundesgerichtshof (BGH) hat mit Urteil vom 18.11.2024 (VI ZR 10/24) entschieden, dass bereits der Verlust der Kontrolle über personenbezogene Daten einen immateriellen Schaden im Sinne des Art. 82 Abs. 1 DS-GVO darstellen kann – unabhängig davon, ob die Daten tatsächlich missbräuchlich verwendet wurden oder spürbare negative Folgen eingetreten sind.

Hintergrund des Falls

Ein Nutzer des sozialen Netzwerks Facebook hatte geklagt, weil seine personenbezogenen Daten – darunter Name, Geschlecht und Telefonnummer – durch ein sogenanntes Scraping-Verfahren unbefugt erfasst und veröffentlicht wurden. Das Unternehmen hatte weder den Kläger noch die zuständige Datenschutzbehörde über den Vorfall informiert. Der Kläger machte geltend, dass er dadurch die Kontrolle über seine Daten verloren habe und dies einen Schaden darstelle.

Entscheidung des BGH

Der BGH stellte klar, dass ein Kontrollverlust über Daten bereits für einen Schadensersatzanspruch ausreicht. Dabei muss der Betroffene nicht beweisen, dass es zu konkreten finanziellen oder sonstigen negativen Auswirkungen gekommen ist. Der Gerichtshof betonte, dass der Datenschutz nicht nur vor Missbrauch schützen soll, sondern auch das Grundrecht auf informationelle Selbstbestimmung stärkt.

Höhe des Schadensersatzanspruchs bei Kontrollverlust über personenbezogene Daten

Die Höhe des Schadensersatzanspruchs bei einem Kontrollverlust über personenbezogene Daten hängt von verschiedenen Faktoren ab. Das Gericht muss insbesondere die Sensibilität der betroffenen Daten (z. B. Gesundheitsdaten gemäß Art. 9 Abs. 1 DS-GVO) sowie deren übliche Verwendungszwecke berücksichtigen.

Weitere entscheidende Aspekte sind:

  • Art des Kontrollverlusts (wer hatte Zugriff: begrenzter oder unbegrenzter Empfängerkreis?),
  • Dauer des Kontrollverlusts,
  • Möglichkeit der Wiedererlangung der Kontrolle (z. B. durch Entfernen der Daten aus dem Internet oder Wechsel der Telefonnummer).

Als Richtwert für einen einfachen Kontrollverlust könnte der hypothetische Aufwand für die Wiederherstellung der Kontrolle dienen. Beispielsweise wurde vom OLG Hamm ein Schadensersatz von 100 Euro als angemessen angesehen. Falls der Betroffene jedoch psychische Beeinträchtigungen geltend macht, die über allgemeine Unannehmlichkeiten hinausgehen, kann das Gericht einen höheren Betrag zusprechen. In solchen Fällen ist eine individuelle Prüfung und Anhörung des Betroffenen erforderlich. Dann könnte der Anspruch höher sein. Tatsache ist aber, dass die deutschen Gerichte bei Schmerzensgeld nicht großzügig sind.

Bedeutung für Nutzer und Unternehmen

Diese Entscheidung ist von großer Bedeutung, weil sie den Schutz von personenbezogenen Daten auf eine neue Ebene hebt. Unternehmen müssen ihre Datenschutzmaßnahmen verschärfen, um Verstöße zu vermeiden. Nutzer sollten sich bewusst sein, dass sie einen Anspruch auf Schadensersatz haben, wenn ihre Daten ohne ihre Zustimmung verwendet werden.

Datenschutz ist mehr als nur Theorie

Mit diesem Urteil wird klar: Der Schutz der Privatsphäre ist kein bloßes Lippenbekenntnis, sondern ein einklagbares Recht. Wer Daten verliert, verliert oft mehr als nur Informationen – und jetzt möglicherweise auch Geld.

 

Annahmeverzugsvergütung

Annahmeverzugsvergütung

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Annahmeverzugsvergütung

 

Das Landesarbeitsgericht (LAG) Niedersachsen hat mit Urteil vom 19.11.2024 (Az. 11 Sa 827/23) entschieden, dass ein Arbeitgeber die Beweislast trägt, wenn er einem gekündigten Arbeitnehmer böswilliges Unterlassen anderweitigen Verdienstes vorwirft. Die Vorinstanz war das Arbeitsgericht Nienburg (Az. 2 Ca 122/23).

Der Fall

Nach der fristlosen Kündigung des Klägers machte dieser Ansprüche auf Annahmeverzugsvergütung geltend. Der Arbeitgeber argumentierte, der Kläger habe es unterlassen, sich um eine neue Beschäftigung zu bemühen, und sei seiner Pflicht zur Arbeitslosmeldung nicht rechtzeitig nachgekommen.

Entscheidung des Gerichts

Das LAG stellte klar, dass allein eine verspätete Arbeitslosmeldung keine Vermutung dafür begründet, dass bei rechtzeitiger Meldung eine zumutbare Stelle hätte vermittelt werden können. Vielmehr muss der Arbeitgeber konkret nachweisen, dass es tatsächlich geeignete Stellen gab, auf die sich der Arbeitnehmer hätte bewerben können.

Auch wenn sich der Arbeitnehmer nicht aktiv um eine neue Stelle bemüht, entbindet dies den Arbeitgeber nicht von seiner Darlegungslast. Die bloße Behauptung, es habe Arbeitsangebote gegeben, reicht nicht aus.

Fazit

Das Urteil stärkt die Rechte von Arbeitnehmern im Annahmeverzug. Arbeitgeber müssen sorgfältig nachweisen, dass dem Arbeitnehmer eine zumutbare Alternative zur Verfügung stand. Andernfalls bleibt der Anspruch auf Annahmeverzugsvergütung bestehen. Zudem zeigt die Entscheidung, dass Arbeitgeber aktiv handeln müssen, um den Annahmeverzug zu beenden. Kritik über die Untätigkeit des Arbeitnehmers allein genügt nicht.

Gastrecht in der mittelalterlichen Stadt

Gastrecht in der mittelalterlichen Stadt

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Gäste in der mittelalterlichen Stadt

 

In einer mittelalterlichen Stadt war die Anwesenheit von Gästen ein zweischneidiges Schwert. Einerseits waren sie für den wirtschaftlichen Austausch unerlässlich, andererseits begegnete die Stadtgemeinde ihnen mit Argwohn. Ohne feste soziale Bindungen galten Fremde als potenzielle Unruhestifter. Um den Stadtfrieden zu sichern und gleichzeitig den Handel zu fördern, regelte das Gastrecht die Bedingungen für den Aufenthalt von Fremden.

Schutz für die Stadt und den Gast

Jeder, der sich nur vorübergehend in einer Stadt aufhielt, galt als Gast. Er hatte kein Bürgerrecht und war von städtischen Privilegien ausgeschlossen. Doch die Städte erkannten, dass der Handel mit auswärtigen Kaufleuten notwendig war, und gewährten ihnen durch das Gastrecht eine gewisse Sicherheit. Jeder Gast wurde einem „Wirt“ zugewiesen – nicht im Sinne eines Gastwirtes, sondern eines Bürgers, der ihn in seinem Haus aufnahm. Dadurch unterstand der Gast für die Dauer seines Aufenthalts dem Hausrecht des Wirtes, was ihn in das soziale Gefüge der Stadt integrierte. Erst später entwickelte sich das Herbergswesen, bei dem Fremde gegen Bezahlung untergebracht wurden.

Schneller Rechtsschutz für Kaufleute

Besonders für kaufmännische Gäste war eine schnelle rechtliche Absicherung wichtig, da sie sich oft nur kurz in der Stadt aufhielten. Ohne Verwandte oder Freunde vor Ort konnten sie keine Eidesgenossen stellen, die ihre Rechtsansprüche unterstützten. Daher bot das Stadtrecht spezielle Regelungen für ihren Schutz.

Wenn ein Gast Ärger machte…

Obwohl Gäste grundsätzlich Schutz genossen, galten für sie besondere Regeln. Falls ein Gast seinem Wirt „entlief“, durfte dieser ihn beispielsweise nach einer Regelung der Alten Saalfelder Statuten (Nafang 14. Jahrhundert) verfolgen und sogar mit Faustschlägen zurück in sein Haus bringen – ohne eine Strafe fürchten zu müssen.

Ähnlich war es, wenn ein Gast seinen Wirt beleidigte oder bedrängte: In diesem Fall durfte der Wirt ihn nach den Saalfelder Statuten auch mit Gewalt in die Schranken weisen. Allerdings musste er dies vor vertrauenswürdigen Zeugen beweisen, um nicht selbst belangt zu werden.

Gäste und der Stadtfrieden

Ein Gast war nicht automatisch Mitglied der christlichen Stadtgemeinde. Daher legten die Alten Saalfelder Stauten fest, dass für einen auswärtigen Mann nicht die Kirchenglocken geläutet werden sollten.

Zum Schutz des Stadtfriedens wurde nach dem Saalfelder Stadtrecht bestimmt, dass jeder – unabhängig von seinem sozialen Stand – das Recht hatte, einen gewalttätigen oder schadensverursachenden Fremden festzunehmen und ihn vor den Richter zu bringen. Damit konnten sich Bürger direkt gegen Störungen von außen zur Wehr setzen.

Kein Erbe für die Liebe? OLG München sagt: Testament gilt!

Kein Erbe für die Liebe? OLG München sagt: Testament gilt!

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

OLG München: Enterbung wegen Eheschließung nicht sittenwidrig

 

Das Oberlandesgericht (OLG) München hat entschieden, dass eine Enterbung aufgrund einer bestimmten Eheschließung nicht automatisch sittenwidrig ist. Der Fall betraf einen Erblasser, der in seinem Testament festlegte, dass sein Sohn enterbt wird, falls er eine bestimmte Person heiratet – was tatsächlich geschah.

Gericht bestätigt Testierfreiheit

Das Gericht stellte fest, dass die Klausel nicht gegen die guten Sitten verstößt. Zwar könnte eine Bedingung, die das Grundrecht auf Eheschließungsfreiheit einschränkt, problematisch sein. Doch da der Erblasser in seinem Testament frei entscheiden kann, wem er sein Vermögen hinterlässt, wurde die Regelung als zulässig eingestuft.

Abwägung der Interessen

Das Gericht berücksichtigte, dass der enterbte Sohn trotzdem pflichtteilsberechtigt bleibt und wirtschaftlich nicht benachteiligt ist. Zudem hätte der Erblasser seine Entscheidung jederzeit widerrufen oder ändern können. Da dies nicht geschah, war anzunehmen, dass er an seiner Verfügung festhalten wollte.

Kein Anspruch auf Erbschaft

Die Entscheidung zeigt: Eine Enterbung ist nicht sittenwidrig, nur weil sie an eine Bedingung geknüpft ist. Ein potenzieller Erbe hat keinen Anspruch darauf, in einem Testament bedacht zu werden.

BGH-Urteil zum Datenschutz: Kontrollverlust über Daten als Schaden

Smarte Geräte, große Fragen: Datenschutz im IoT-Zeitalter

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Smarte Geräte, große Fragen: Datenschutz im IoT-Zeitalter

 

Die Entwicklung des IoT begann bereits in den 1970er-Jahren mit einem vernetzten Getränkeautomaten an der Carnegie Mellon University. Heute sind smarte Geräte aus Haushalten und Unternehmen nicht mehr wegzudenken. Prognosen zeigen, dass der IoT-Markt in Deutschland bis 2028 auf über 51 Milliarden Euro anwachsen wird. Doch während sich die Technologie rasant weiterentwickelt, bleibt der Datenschutz weitgehend ungeklärt.

Ungewisse Datenströme und fehlende Transparenz

Das Internet der Dinge (IoT) vernetzt smarte Geräte mit dem Internet und ermöglicht ihnen den Austausch von Daten. Doch während die Zahl der IoT-Geräte exponentiell wächst, bleiben zentrale Datenschutzfragen ungeklärt. Nutzer wissen oft nicht, welche Daten ihre Geräte sammeln, wohin sie gesendet werden und wer davon profitiert.

Was ist IoT und wo begegnet es uns?

IoT-Geräte sind technische Geräte, die mit einer Software ausgestattet sind und dauerhaft mit dem Internet verbunden sind. Sie generieren Daten, tauschen sie aus und kommunizieren mit anderen Geräten. Der Ursprung dieser Technologie reicht bis in die 1970er-Jahre zurück, als Informatiker der Carnegie Mellon University einen Getränkeautomaten mit Sensoren ausstatteten, um den Füllstand aus der Ferne zu überwachen.

Heute sind IoT-Geräte allgegenwärtig: von Smartphones, Smartwatches und Saugrobotern über intelligente Kaffeemaschinen und Rasenmäher bis hin zu vernetzten Produktionsanlagen und Arbeitsschutzkleidung (Wearables). Insbesondere in der Industrie und im Arbeitsleben gewinnen sie an Bedeutung.

Die Zukunft des IoT: Eine neue technologische Revolution?

Während einige Experten IoT als eine technische Revolution wie das Telefon oder das Internet betrachten, gibt es auch skeptische Stimmen. Dennoch sprechen die Prognosen eine klare Sprache: Der IoT-Markt wird in den nächsten Jahren drastisch wachsen. In Deutschland soll sich der Umsatz bis 2028 auf 51,05 Milliarden Euro vervierfachen. Besonders rasant wächst der Bereich der Konsumgüter, auch wenn er nicht der Haupttreiber der Entwicklung ist.

Welche Daten sammeln IoT-Geräte – und wohin werden sie gesendet?

Eine der drängendsten Fragen ist die Datenverarbeitung durch IoT-Geräte. Nutzer haben derzeit keinen Einblick, welche Daten ihre Geräte erfassen und wohin sie gesendet werden. Dies ist aus datenschutzrechtlicher Sicht problematisch, da sich hier potenzielle Risiken für Verbraucher ergeben.

Warum ist das relevant?

  • Es ist oft nicht ersichtlich, ob und in welchem Umfang personenbezogene Daten übertragen werden.
  • Die Datenschutz-Grundverordnung (DS-GVO) schützt zwar personenbezogene Daten, doch die Abgrenzung zu anonymen oder nicht personenbezogenen Daten ist schwierig.
  • Unternehmen, die IoT-Daten sammeln, sind nicht immer transparent über deren Nutzung.
  • Nutzer haben keinen finanziellen Ausgleich für die durch sie generierten Daten, obwohl diese für Unternehmen einen hohen wirtschaftlichen Wert haben.

Regulierungen: Reicht die DS-GVO aus?

Auf EU-Ebene sind bereits erste Regulierungen in Planung oder Umsetzung, doch ein umfassender Schutz der Verbraucher besteht noch nicht. Die DS-GVO schützt personenbezogene Daten, allerdings bleibt unklar, wer die Kontrolle über nicht-personenbezogene Daten hat.

Der Data Act der EU hat diese Frage bislang nicht eindeutig beantwortet. Besonders unklar bleibt, ob Nutzer Eigentumsrechte an den von ihnen generierten Daten haben sollten und welche Pflichten Hersteller bei der Offenlegung der Datennutzung haben.

Herausforderungen für Verbraucher

Selbst wenn Nutzer technisch in der Lage wären, den Datenfluss ihrer IoT-Geräte zu unterbinden, stellt sich die Frage, ob die Geräte dann noch ordnungsgemäß funktionieren. Hersteller könnten dies als „Mangel“ werten, wodurch Garantieansprüche erlöschen. Zudem bleibt die Frage offen, ob Unternehmen verpflichtet sind, schon vor dem Kauf über die Datenverarbeitung ihrer Geräte zu informieren.

Besonders kritisch ist die Mitbetroffenheit Dritter:

  • Was passiert mit Gästen oder Mitbewohnern, die nicht eingewilligt haben, aber von Kameras oder Sensoren in IoT-Geräten erfasst werden?
  • Welche Rechte haben Personen, die unbeabsichtigt von IoT-Geräten in fremden Haushalten erfasst werden?

Nutzer müssen sich ihrer Daten bewusst werden

Das Internet der Dinge erleichtert unseren Alltag – doch es bringt auch Risiken mit sich. Smarte Geräte wie Sprachassistenten, vernetzte Kameras oder Fitness-Tracker sammeln und übermitteln ständig Daten. Doch wer kontrolliert, was mit diesen Informationen geschieht? Viele Nutzer unterschätzen die Gefahr für ihre Privatsphäre. Ohne klare Einwilligung werden persönliche Daten oft an Unternehmen weitergegeben, gespeichert oder für Werbezwecke genutzt. In einigen Fällen können sogar Bewegungsprofile erstellt oder Gespräche analysiert werden. Viele Geräte scheinen keine Datensicherheit zu gewährleisten, so dass unberechtigte Dritte über die Geräte die Nutzer ausspähen und beispielsweise zur Vorbereitung von Einbruchsdiebstählen nutzen können.

Datenschutz bedeutet, selbst zu entscheiden, welche Daten gesammelt werden und wer darauf Zugriff hat. Nur wer sich dieser Risiken bewusst ist, kann aktiv Maßnahmen ergreifen: Datenschutzeinstellungen anpassen, bewusster Geräte auswählen und gezielt Funktionen deaktivieren. Datenschutz ist kein Luxus, sondern ein Schutzschild für die eigene Privatsphäre. Wer sich informiert, bleibt souverän – auch in einer vernetzten Welt!

Es braucht mehr Transparenz und Regulierung

IoT ist nicht mehr aus unserem Alltag wegzudenken, doch der Datenschutz hinkt hinterher. Nutzer haben weder Einblick in die Datenströme noch die Möglichkeit, ihre Daten zu kontrollieren oder zu monetarisieren.

Dringende Fragen, die geklärt werden müssen:

  • Welche europäischen Rechtsgrundlagen regeln die Datenverarbeitung von IoT-Geräten?
  • Welche Rechte brauchen Verbraucher?
  • Welche Pflichten sollten IoT-Herstellern auferlegt werden?
  • Brauchen wir eine „Datenampel“ zur besseren Kennzeichnung?

Mehr zu diesem Thema in der DANA – Zeitschrift der Deutschen Vereinigung für Datenschutz: DANA-Archiv 2023.

Datenschutzverletzungen richtig melden – Neue EDSA-Leitlinien einfach erklärt

Altersdiskriminierung bei Stellenausschreibungen

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Altersdiskriminierung bei Stellenausschreibungen – Urteil des ArbG Heilbronn

Das Arbeitsgericht Heilbronn hat entschieden: Die Formulierung „Digital Native“ in einer Stellenausschreibung kann als Indiz für eine Altersdiskriminierung gewertet werden. In einem aktuellen Fall sprach das Gericht einem abgelehnten Bewerber eine Entschädigung in Höhe von 7.500 Euro zu.

Der Fall im Überblick

Ein 1972 geborener Bewerber hatte sich auf eine ausgeschriebene Stelle als Manager für Unternehmenskommunikation beworben. Die Anzeige enthielt den Passus „Als Digital Native fühlst du dich in der Welt der Social Media … zu Hause“. Nach einer Absage klagte der Bewerber auf Entschädigung, da er sich wegen seines Alters benachteiligt sah.

Gericht bestätigt Diskriminierung

Das ArbG Heilbronn sah die Formulierung als Hinweis darauf, dass vorrangig jüngere Bewerber angesprochen wurden. Der Begriff „Digital Native“ wird meist für Personen verwendet, die mit digitalen Medien aufgewachsen sind – typischerweise ab Jahrgang 1980. Dies könne ältere Bewerber faktisch ausschließen.

Entscheidung und Konsequenzen

Das Gericht erkannte eine Altersdiskriminierung und sprach dem Kläger eine Entschädigung zu, allerdings nicht in der geforderten Höhe von 37.500 Euro, sondern begrenzt auf 1,5 Monatsgehälter. Es stellte fest, dass Stellenausschreibungen neutral formuliert sein müssen, um Diskriminierungen zu vermeiden.

Was bedeutet das für Unternehmen?

Arbeitgeber sollten ihre Stellenausschreibungen genau prüfen, um unbewusste Diskriminierungen zu vermeiden. Begrifflichkeiten wie „junges Team“, „Berufsanfänger“ oder eben „Digital Native“ können problematisch sein. Eine diskriminierungsfreie Sprache schützt Unternehmen vor Klagen – und sorgt für Chancengleichheit auf dem Arbeitsmarkt.

Ein kleiner Fehler in der Formulierung kann also teure Konsequenzen haben – da hilft es, vorher einmal mehr nachzudenken.

 

Erbe auf dem Bierdeckel: OLG Oldenburg entscheidet über skurriles Testament

Erbe auf dem Bierdeckel: OLG Oldenburg entscheidet über skurriles Testament

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Erbe auf dem Bierdeckel: OLG Oldenburg entscheidet über skurriles Testament

 

Das Oberlandesgericht Oldenburg hat in seinem Beschluss vom 20.12.2023 – 3 W 96/23 eine aufsehenerregende Entscheidung gefällt: Ein auf einem Notizzettel einer Brauerei verfasstes Testament wurde als rechtsgültig anerkannt. Die Lebensgefährtin des Erblassers erhielt damit das gesamte Erbe – trotz Widerstands der Verwandten.

Testament auf einem Bierdeckel – geht das überhaupt?

Die Erbfrage stellte sich nach dem Tod eines Gastwirtes, der keinen direkten Nachkommen hinterließ. Statt eines klassischen Testaments fand sich ein handschriftlicher Zettel hinter der Theke seiner Gaststätte mit der simplen Aufschrift: „BB kriegt alles“, unterzeichnet mit Datum und Namen. BB war die langjährige Lebensgefährtin des Verstorbenen.

Die Erben zweifelten an der Echtheit des Dokuments und argumentierten, es könne sich nur um eine unbedachte Notiz oder einen Entwurf handeln.

OLG Oldenburg bestätigt Testierwillen

Das OLG Oldenburg entschied jedoch, dass das Schriftstück die Mindestanforderungen eines Testaments nach § 2247 BGB erfüllt. Das Gericht betonte:  „Der Testierwille grenzt das Testament von Entwürfen oder bloßen Ankündigungen ab. Demnach muss außer Zweifel stehen, dass der Erblasser die Urkunde als verbindliche letztwillige Verfügung angesehen hat.“ (Rn. 29, OLG Oldenburg, Beschluss vom 20.12.2023 – 3 W 96/23)

Warum das Testament gültig ist

Das Gericht begründete seine Entscheidung damit, dass das Dokument vom Erblasser eigenhändig geschrieben und unterschrieben worden war, womit es die grundlegenden Anforderungen eines Testaments erfüllte. Entscheidend sei zudem der Testierwille, also die klare Absicht des Verstorbenen, mit diesem Schriftstück verbindlich über seinen Nachlass zu bestimmen. Nach Aussage einer Zeugin habe der Erblasser kurz vor seinem Tod genau diesen Wunsch geäußert, was das Gericht als weiteren Beleg für seine ernsthafte Absicht wertete. Auch die Bezeichnung „BB“ sei eindeutig, da der Erblasser seine Lebensgefährtin stets so nannte und keine andere Person mit diesen Initialen bekannt war. Die ungewöhnliche Wahl eines Notizzettels ändere nichts an der Gültigkeit des Testaments, denn laut Gericht komme es nicht auf das Material, sondern allein auf den Willen des Erblassers an.

Testament ist nicht gleich Testament

Diese Entscheidung zeigt, dass ein Testament auch dann gültig sein kann, wenn es auf einem ungewöhnlichen Dokument verfasst wurde. Entscheidend ist, dass der Wille des Erblassers klar erkennbar ist.

Wer sicher gehen möchte, dass sein letzter Wille nicht angefochten wird, sollte dennoch auf eine ordentliche Form achten – oder besser gleich einen Notar aufsuchen. Sonst könnte das Testament am Ende für mehr Verwirrung als Klarheit sorgen.

Denn eins ist sicher: Rechtssicherheit sollte nicht auf einem Bierdeckel stehen – höchstens die nächste Runde!

Arbeitszeitbetrug im Homeoffice

Arbeitszeitbetrug im Homeoffice

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Arbeitszeitbetrug im Homeoffice

 

Die fortschreitende Digitalisierung und die Flexibilisierung der Arbeitswelt haben das Homeoffice zu einer etablierten Arbeitsform gemacht. Doch mit den Vorteilen kommen auch Herausforderungen, insbesondere wenn es um die Kontrolle der Arbeitszeit geht. Ein aktueller Fall vor dem Landesarbeitsgericht Rheinland-Pfalz zeigt, wie schwierig es für Arbeitgeber sein kann, Arbeitszeitbetrug nachzuweisen und rechtssicher dagegen vorzugehen.

Arbeitszeitbetrug: Was bedeutet das genau?

Arbeitszeitbetrug liegt vor, wenn ein Arbeitnehmer Arbeitszeiten vortäuscht, um eine Vergütung für nicht erbrachte Arbeitsleistung zu erhalten. Dies kann beispielsweise durch falsche Angaben in der Arbeitszeiterfassung, das unbefugte Verlassen des Arbeitsplatzes oder – im Homeoffice – durch die private Nutzung dienstlicher Arbeitsgeräte während der Arbeitszeit geschehen. Arbeitgeber stehen hierbei vor der Herausforderung, den Nachweis für eine Pflichtverletzung zu erbringen.

Der Fall vor dem LAG Rheinland-Pfalz

Im Dezember 2023 entschied das LAG Rheinland-Pfalz (Urteil vom 19.12.2023 – 8 Sa 48/23) über die außerordentliche Kündigung einer Arbeitnehmerin, die im Homeoffice tätig war. Der Arbeitgeber warf ihr vor, während der Arbeitszeit private Webseiten besucht und andere nicht arbeitsbezogene Tätigkeiten ausgeführt zu haben. Da es im Unternehmen keine Arbeitszeiterfassung gab, stützte sich der Arbeitgeber auf den Browserverlauf des Dienstlaptops sowie auf Kommunikationsprotokolle aus dem firmeneigenen Messaging-Dienst.

Die Arbeitnehmerin argumentierte, dass sie ihre Arbeitszeit flexibel gestalten durfte und dass einige der vorgeworfenen Aktivitäten dienstlichen Bezug hatten. Zudem führte sie an, dass sie oft offline gearbeitet habe, wodurch der Browserverlauf nicht als alleiniger Beweis für eine fehlende Arbeitsleistung herangezogen werden könne.

Die Beweislast im Kündigungsschutzprozess

Ein zentrales Thema in dem Verfahren war die Darlegungs- und Beweislast. Das Gericht stellte klar, dass der Arbeitgeber nicht nur nachweisen muss, dass der Arbeitnehmer während der Arbeitszeit private Tätigkeiten ausgeführt hat, sondern auch, dass er dadurch seine arbeitsvertraglichen Pflichten verletzt hat. Dies kann besonders schwierig sein, wenn keine eindeutigen Arbeitszeiterfassungen existieren.

Nach dem Urteil des LAG reicht es nicht aus, allein die Nutzung privater Webseiten während der Arbeitszeit zu belegen. Vielmehr muss der Arbeitgeber darlegen, dass dadurch die geschuldete Arbeitsleistung nicht erbracht wurde. Die Entscheidung zeigt deutlich, dass eine lückenhafte Kontrolle der Arbeitszeiten es erschwert, arbeitsrechtliche Maßnahmen durchzusetzen.

Prävention: Wie können Arbeitgeber sich schützen?

Um Arbeitszeitbetrug zu vermeiden und gleichzeitig eine faire und transparente Arbeitsweise im Homeoffice zu gewährleisten, sollten Unternehmen klare Regelungen treffen:

  1. Arbeitszeiterfassung: Eine verpflichtende Zeiterfassung kann helfen, Arbeitszeiten besser zu dokumentieren und Streitigkeiten zu vermeiden.
  2. Klare Homeoffice-Regeln: Durch Betriebsvereinbarungen oder individuelle Arbeitsverträge sollte geregelt werden, in welchem Rahmen Arbeitszeiten flexibel gestaltet werden können.
  3. Schulungen und Sensibilisierung: Mitarbeiter sollten über ihre Pflichten informiert und für die Bedeutung von Arbeitszeitregelungen sensibilisiert werden.
  4. Vertrauensbasierte Kontrolle: Statt auf strikte Überwachung zu setzen, sollten Unternehmen auf Ergebnisse und Zielvorgaben fokussieren.

Wie kann sich der Betriebsrat einsetzen?

Der Betriebsrat hat die Möglichkeit, sich für klare und faire Homeoffice-Regelungen einzusetzen. Er kann mit dem Arbeitgeber Betriebsvereinbarungen zu Arbeitszeitregelungen aushandeln, um sicherzustellen, dass Mitarbeiter nicht ungerechtfertigt unter Verdacht geraten. Zudem kann er Arbeitnehmer in Streitfällen unterstützen und bei Kündigungen wegen vermeintlichen Arbeitszeitbetrugs vermitteln. Auch kann der Betriebsrat darauf hinwirken, dass eine transparente Arbeitszeiterfassung eingeführt wird, die sowohl die Interessen des Arbeitgebers als auch die der Arbeitnehmer berücksichtigt.

Wie können sich Arbeitnehmer absichern?

Arbeitnehmer können verschiedene Maßnahmen ergreifen, um sich gegen den Vorwurf des Arbeitszeitbetrugs abzusichern:

  1. Dokumentation der Arbeitszeit: Wer seine Arbeitszeit selbst genau dokumentiert, kann bei Streitigkeiten einen klaren Nachweis erbringen.
  2. Klare Kommunikation: Es ist ratsam, mit Vorgesetzten abzusprechen, welche Erwartungen an Erreichbarkeit und Pausenzeiten bestehen.
  3. Einhaltung der Vorgaben: Falls im Unternehmen Regelungen zur Arbeitszeiterfassung existieren, sollten diese genau befolgt werden.
  4. Transparente Nutzung von Arbeitsmitteln: Falls private Internetnutzung erlaubt ist, sollte dies idealerweise klar mit dem Arbeitgeber abgestimmt sein.
  5. Rückfragen bei Unklarheiten: Falls Unsicherheiten hinsichtlich der Arbeitszeitgestaltung bestehen, sollte proaktiv beim Arbeitgeber oder Betriebsrat nachgefragt werden.

Fazit: Klare Regelungen sind essenziell

Das Urteil des LAG Rheinland-Pfalz zeigt, dass es für Arbeitgeber schwierig sein kann, Arbeitszeitbetrug im Homeoffice nachzuweisen. Ohne eine transparente Arbeitszeiterfassung und klare Homeoffice-Regelungen geraten Unternehmen leicht in eine Beweisschwierigkeit. Daher sollten Arbeitgeber präventiv handeln, um sowohl die Produktivität als auch die Rechtskonformität zu sichern.

Für Arbeitnehmer wiederum bedeutet dies, dass sie sich ihrer Verantwortung bewusst sein und im Homeoffice genauso gewissenhaft arbeiten sollten wie im Büro. Der Betriebsrat kann eine entscheidende Rolle dabei spielen, faire Regelungen zu etablieren und Arbeitnehmer vor ungerechtfertigten Vorwürfen zu schützen.

 

Das Spital im Mittelalter

Das Spital im Mittelalter

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Das mittalalterliche Spital

Im Mittelalter führte der Anstieg mittelloser und kranker Menschen in den Städten zu einem wachsenden Bedürfnis nach Fürsorgeeinrichtungen. So entstanden Spitäler als Anlaufstellen für Fremde, Pilger, Kranke und Arme. Ihre Wurzeln liegen in der christlichen Pflicht, notleidenden und hilfsbedürftigen Menschen beizustehen.

Keine Heilung, sondern Linderung

Im Mittelalter dienten Spitäler primär als Zufluchtsorte für Bedürftige, darunter Arme, Pilger und Kranke. Anders als in heutigen Krankenhäusern fanden dort jedoch keine gezielten Heilbehandlungen statt. Medizinisches Wissen war begrenzt, und die Versorgung der Patienten konzentrierte sich weniger auf eine tatsächliche Heilung als vielmehr darauf, das Leiden der Betroffenen erträglicher zu machen.

Übergang zur weltlichen Verwaltung

Mit dem Aufblühen der Städte und der Festigung städtischer Strukturen übernahm zunehmend die weltliche Obrigkeit die Initiative zur Gründung neuer Spitäler. Die Wohlfahrtspflege wurde zum Ausdruck des bürgerlichen Selbstverständnisses und Gemeinsinns. Obwohl die Kirche die Einrichtung und Leitung durch Laien nicht ablehnte, konnte sie der steigenden Nachfrage nicht mehr gerecht werden. Dennoch blieb das Spital ein Gotteshaus der seelsorgerischen und leiblichen Fürsorge mit Gottesdiensten, auch wenn die Verwaltung auf bürgerlichem Fundament stand.

Rolle des Spitalgeistlichen

Der Spitalgeistliche war entweder von der das Patronat innehabenden Pfarrkirche abhängig oder, im Falle einer Herauslösung des Spitals aus der Pfarrkirche (Exemtion), in der Anstaltsseelsorge selbständig, sodass die Spenden und Vermögensopfer allein dem Spital zufielen. Die Voraussetzungen für die Ausübung des Amtes ergaben sich aus den Bestimmungen des Kirchenrechts. Die Besetzungsbefugnis lag bei städtischen Spitälern in der Hand des Stadtrates, der die freie Einsetzungs- und Absetzungsbefugnis nach weltlichem Recht hatte. Auch wenn das städtische Spital eigenständig gegenüber der Pfarrkirche war, unterstand der Spitalgeistliche nach kirchlichem Recht als niederer Geistlicher dem Bischof und war in den Pfarrorganismus eingegliedert. Möglich war auch, dass der Spitalgeistliche zugleich das Amt des Spitalmeisters ausübte. Er war für die Seelsorge, die Abhaltung von Gottesdiensten und Messdiensten sowie die allgemeine Aufrechterhaltung von Zucht und Ordnung im Spital zuständig. Seine Unterhaltung oblag grundsätzlich dem Spital.

Wirtschaftliche Grundlagen der Spitäler

Das Spital unterhielt in der Regel Wirtschaftsgebäude und entsprechendes Personal. So muss es sich beim Spital in Saalfeld um ein größeres Haus gehandelt haben, da es einen eigenen Geistlichen anstellte, der in der Spitalkapelle Messen hielt.

Kein Anspruch auf Aufnahme

Im Mittelalter existierte kein allgemeiner Anspruch auf Aufnahme in ein Spital. Die Entscheidung darüber lag bei den Betreibern, meist kirchlichen oder städtischen Institutionen, die nach eigenen Kriterien vorgingen. Aufnahmekriterien variierten je nach Spital und dessen Zweckbestimmung. Einige Einrichtungen spezialisierten sich auf bestimmte Personengruppen, wie Pilger oder Leprakranke, während andere allgemeiner ausgerichtet waren. Oft hing die Aufnahme von verfügbaren Ressourcen und Kapazitäten ab, sodass nicht alle Bedürftigen berücksichtigt werden konnten.

 

 

 

Freistellung

Freistellung

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Freistellung – Was ist eine Freistellung im Arbeitsrecht?

Die sogenannte Freistellung im Arbeitsrecht bedeutet, dass der Arbeitgeber bis zum Ablauf der Kündigungsfrist darauf verzichtet, den Arbeitnehmer weiterhin arbeiten zu lassen, ihm aber bis zum Ende des Arbeitsverhältnisses weiterhin den Lohn zahlt. Das bedeutet, dass der Arbeitnehmer von seiner Arbeitsleistung freigestellt ist und trotzdem sein Gehalt erhält. In der Praxis kommen solche Freistellungen häufig vor, da nach einer Kündigung das zwischenmenschliche Verhältnis in den meisten Fällen stark belastet ist. Oft möchten beide Seiten den Kontakt vermeiden. Zudem hat der Arbeitgeber ein Interesse daran, während der Freistellung den noch bestehenden Urlaubsanspruch des Arbeitnehmers anzurechnen.

Was, wenn der Arbeitnehmer doch arbeiten will?

Es kann jedoch vorkommen, dass der Arbeitnehmer weiterhin arbeiten möchte. Dies kann verschiedene Gründe haben. Beispielsweise könnte er seine Kollegen bis zum Abschluss eines Projekts nicht im Stich lassen oder sich von seinen bisherigen Geschäftspartnern angemessen verabschieden wollen. Ebenso könnte er es bevorzugen, seinen Urlaub nicht zu nehmen, sondern sich diesen stattdessen auszahlen zu lassen, um sich nach dem Ende des Arbeitsverhältnisses eine größere Reise leisten zu können. Die Gründe für den Wunsch, bis zum Vertragsende weiterzuarbeiten, können sehr unterschiedlich sein.

Geregelt oder nicht geregelt – die erste Frage!

Ein Blick in den Arbeitsvertrag bringt erste Klarheit. Entweder ist eine Freistellung bereits vertraglich vereinbart oder nicht. Falls eine korrekt formulierte Freistellungsklausel enthalten ist, kann der Arbeitgeber den Arbeitnehmer freistellen und während dieser Zeit den verbleibenden Urlaub sowie das Guthaben auf dem Arbeitszeitkonto anrechnen. Ist keine Klausel vorhanden, kann der Arbeitnehmer seinen Beschäftigungsanspruch durchsetzen. Dieser Anspruch wurde bereits 1955 vom Bundesarbeitsgericht bestätigt (BAG, Urteil vom 10.11.1955 – 2 AZR 591/54) und aus dem verfassungsrechtlichen Schutz der Persönlichkeit gemäß Art. 1 und 2 GG abgeleitet. Danach hat der Arbeitnehmer ein Recht auf eine Beschäftigung im Rahmen seines Arbeitsvertrags.

Nichts geregelt – Stillstand?

Hat der Arbeitnehmer im Arbeitsvertrag nicht ausdrücklich auf seinen Beschäftigungsanspruch verzichtet, bedeutet dies nicht, dass Arbeitgeber und Arbeitnehmer keine Regelung mehr treffen können. Beide Parteien können sich weiterhin einvernehmlich auf eine individuelle Regelung zur Freistellung einigen.

Erwerb von zusätzlichem Urlaub während der Freistellung?

Während der Zeit der Freistellung erwirbt der Arbeitnehmer keinen neuen Urlaubsanspruch. Dies ergibt sich daraus, dass der Urlaubsanspruch in direktem Zusammenhang mit der Erbringung der Arbeitsleistung steht. Da die Arbeitspflicht durch die Freistellung vollständig entfällt, kann für den Zeitraum der Freistellung kein zusätzlicher Urlaubsanspruch entstehen.

Der Europäische Gerichtshof hat festgestellt: Beamte sind „Beschäftigte“ im Sinne des § 88 DS-GVO.

Der Europäische Gerichtshof hat festgestellt: Beamte sind „Beschäftigte“ im Sinne des § 88 DS-GVO.

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Der Europäische Gerichtshof hat festgestellt:

Beamte sind „Beschäftigte“ im Sinne des § 88 DS-GVO.

 

KURZ und knapp.

 

88 Abs.1 DS-GVO regelt die Verarbeitung von Daten im Zusammenhang mit einem „Beschäftigungsverhältnis“. Der EuGH hat in seiner Entscheidung vom 30. März 2023 (Az. C-34/21) klargestellt, dass das Wort „Beschäftigungsverhältnis“ auch ein beamtenrechtliches Dienstverhältnis mit umfasst, weil:

Die DS-GVO den Begriff des „Beschäftigten“ und das in § 88 DSG-VO verwendete Wort „Beschäftigtenkontext“ weder definiert noch auf nationale Gesetze verweist, sodass Beamte nicht ausdrücklich ausgeschlossen sind.

Beschäftigte im üblichen Sinn ihre Arbeit in einem Unterordnungsverhältniss zu ihrem Arbeitgeber und daher unter dessen Kontrolle erledigen.

Das wesentliche Merkmal des „Beschäftigungskontexts“ darin besteht, dass eine Person während einer bestimmten Zeit für eine andere nach deren Weisung Leistungen erbringt, für die sie als Gegenleistung eine Vergütung erhält.

Somit schlussfolgert der EuGH, dass § 88 DS-GVO mit dem Wort „Beschäftigungskontext“ Beschäftigungsverhältnisse sowohl im privaten wie auch im öffentlichen Sektor umfasst.

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Rückzahlung von Fortbildungskosten

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Arbeitgeberfinanzierte Fortbildung und Rückzahlungsklauseln – Ein Urteil des BAG

Es ist nicht selten, dass ein Arbeitgeber einem Arbeitnehmer die Fortbildung finanziert und ihn dabei finanziell unterstützt. Das Bundesarbeitsgericht (BAG) hat am 25. April 2023 über einen solchen Fall unter dem Aktenzeichen 9 AZR 187/22 entschieden.

Was war passiert?

Welcher konkrete Sachverhalt dem Urteil zugrunde liegt, ist nicht bekannt. Es könnte sich jedoch wie folgt zugetragen haben:

Maike Tasten ist seit einigen Jahren bei Bernd Buch als Buchhalterin angestellt. Möglicherweise kamen die beiden bei einem Kaffee in der Mittagspause auf die Idee, dass Maike bereits über umfassendes Wissen im Bereich der Steuerberatung verfügt und die Steuerberaterprüfung problemlos bestehen könnte. Bernd hatte bereits einige Buchhalter bei der Vorbereitung auf das anspruchsvolle Steuerberaterexamen unterstützt.

Maike fühlt sich durch das Lob geschmeichelt und erklärt sich bereit, die Prüfung abzulegen. Wenig später schließen beide einen Vertrag, den Bernd regelmäßig für solche Fälle verwendet – er ersetzt lediglich den Namen und den Förderbetrag im Vordruck. Der Vertrag enthält eine Rückzahlungsverpflichtung für den Fall, dass Maike:

  • innerhalb von 24 Monaten nach bestandener Prüfung das Unternehmen verlässt,
  • innerhalb von 24 Monaten nach nicht bestandener Prüfung das Unternehmen verlässt oder
  • die Prüfung wiederholt nicht ablegt.

Zudem enthält der Vertrag eine Härtefallregelung, nach der Maike im Falle einer dauerhaften Erkrankung oder der Pflege von Angehörigen für die Dauer der Verhinderung von der Rückzahlungspflicht befreit ist.

Beide unterschreiben den Vertrag, und Bernd übernimmt daraufhin fast 5.000 Euro an Ausbildungskosten. Allerdings tritt Maike nie zur Prüfung an und arbeitet inzwischen nicht mehr für Bernd. Dieser fordert nun sein Geld zurück und verklagt Maike auf Rückzahlung.

Die Entscheidung des BAG

Der Rechtsstreit begann 2021 vor dem Arbeitsgericht Lingen und wurde nun in letzter Instanz vom Bundesarbeitsgericht entschieden. Das BAG entschied, dass Maike die gezahlte Summe nicht zurückerstatten muss.

Der Grund: Bernd hatte mit der Vereinbarung sogenannte Allgemeine Geschäftsbedingungen (AGB) verwendet, die einer besonderen rechtlichen Prüfung unterliegen. Werden Vertragsbedingungen von einer Partei – in diesem Fall Bernd – für mehr als drei Vertragsabschlüsse genutzt, gelten sie als vorformulierte Vertragsbedingungen.

Sobald die „AGB-Tür“ geöffnet ist, muss nach § 305c Abs. 2, §§ 306, 307 bis 309 BGB geprüft werden, ob die Klauseln den anderen Vertragspartner unangemessen benachteiligen. Genau das hat das BAG getan und festgestellt, dass die Rückzahlungsklausel eine unangemessene Benachteiligung darstellt.

Das Gericht argumentiert, dass eine solche Klausel einen erheblichen Druck erzeugen kann, im bestehenden Arbeitsverhältnis zu verbleiben, und damit das Grundrecht auf freie Wahl des Arbeitsplatzes (Art. 12 Abs. 1 Satz 1 GG) einschränkt. Eine Rückzahlungspflicht muss daher einem berechtigten und schutzwürdigen Interesse des Arbeitgebers dienen und zugleich die möglichen Nachteile für den Arbeitnehmer angemessen ausgleichen.

Zudem ist zu berücksichtigen, dass die Rückzahlungspflicht nicht über die wirtschaftlichen Verhältnisse des Arbeitnehmers hinausgehen darf. Ein Arbeitnehmer mit einem durchschnittlichen Nettoeinkommen von 1.400 Euro kann beispielsweise nicht dazu verpflichtet werden, Ausbildungskosten in Höhe von 20.000 Euro auf einmal zurückzuzahlen.

Die Wertung der Interessen beider Parteien – ein fiktives Beispiel

Bernd ist verärgert. Eigentlich wollte er Maike nur unterstützen, doch nun bleibt er auf den Kosten sitzen, weil er ein standardisiertes Vertragsformular verwendet hat. „Maike ist fein raus, und am Ende ist der Unternehmer immer der Dumme!“, denkt er sich.

Maike wiederum hat sich entschieden, doch keine Steuerberaterin zu werden. Nach einer intensiven Selbstreflexion kam sie zu dem Schluss, dass sie lieber einen Beruf ergreifen möchte, bei dem sie direkt mit Menschen arbeitet. Sie absolviert nun eine Ausbildung zur Pflegefachkraft.

Die Kündigung bei Bernd fiel ihr schwer, da sie sich wegen der Ausbildungsvereinbarung und der möglichen Rückzahlung Sorgen machte. Erst die finanzielle Unterstützung ihrer Eltern ermutigte sie, diesen Schritt zu wagen.

Betrachtet man die Interessen beider Parteien, wird deutlich, dass Arbeitgebern viele Pflichten auferlegt werden. Sie tragen eine hohe Verantwortung für ihr Unternehmen und ihre Mitarbeiter. Bernd hat sich bewusst für die Selbstständigkeit entschieden und nimmt die damit verbundenen Herausforderungen in Kauf.

Maike hingegen bevorzugt die Sicherheit eines Angestelltenverhältnisses. Sie schätzt die Planbarkeit eines festen Gehalts und nimmt dafür in Kauf, Weisungen eines Arbeitgebers zu befolgen, feste Arbeitszeiten einzuhalten und Urlaub nach Vorgabe zu nehmen.

Zwischen den beiden besteht nicht nur ein arbeitsrechtliches Verhältnis – mit Bernd als weisungsbefugtem Arbeitgeber und Maike als weisungsgebundener Arbeitnehmerin –, sondern auch ein zwischenmenschliches Machtgefälle. Damit dieses Machtverhältnis ausgewogen bleibt, sind Entscheidungen wie die des BAG erforderlich.

Hätte Maike nicht auf die finanzielle Unterstützung ihrer Eltern zählen können, wäre sie möglicherweise gezwungen gewesen, die Ausbildung abzuschließen und noch zwei Jahre bei Bernd zu arbeiten – ungeachtet ihrer eigentlichen Wünsche.

Natürlich könnte man einwenden, dass sie sich der Rückzahlungsverpflichtung bewusst gewesen sein muss. Doch was wäre gewesen, wenn sie von Anfang an abgelehnt hätte? Hätte Bernd ihr dann möglicherweise gekündigt?

Das Arbeitsrecht und die Rechtsprechung des BAG zielen darauf ab, durch einheitliche Kriterien eine gerechte Balance zwischen den Interessen von Arbeitnehmern und Arbeitgebern herzustellen. Der Wermutstropfen liegt in der Tat oft beim Arbeitgeber, da er die Verantwortung trägt.

 

 

Vermächtnis verjährt? OLG Frankfurt zieht den Schlussstrich!

Vermächtnis verjährt? OLG Frankfurt zieht den Schlussstrich!

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Vermächtnis verjährt? OLG Frankfurt zieht den Schlussstrich!

 

Das Oberlandesgericht Frankfurt am Main (Az.  15 U 293/20) hat entschieden, dass Ansprüche aus einem Vermächtnis verjähren können, wenn die gesetzliche Frist von drei Jahren ab Kenntnis der anspruchsbegründenden Umstände abgelaufen ist. In dem Fall hatte ein Kläger versucht, seine vermächtnisrechtlichen Ansprüche geltend zu machen – allerdings zu spät.

Drei Jahre Zeit – dann ist es vorbei

Nach § 195 BGB beträgt die Verjährungsfrist für Vermächtnisansprüche drei Jahre. Die Frist beginnt, sobald der Berechtigte von den anspruchsbegründenden Umständen und der Person des Schuldners Kenntnis erlangt. Im vorliegenden Fall war dies spätestens mit der Testamentseröffnung im Jahr 2015 der Fall. Damit lief die Verjährungsfrist Ende 2018 ab. Da die Klage erst 2019 erhoben wurde, war sie verjährt. Das Gericht stellte klar: „Ein Irrtum über die eigene Stellung als Erbe oder Vermächtnisnehmer ist unbeachtlich, da die Kenntnis der tatsächlichen Umstände für den Verjährungsbeginn ausreicht.“

Verjährung trotz Unsicherheit über die Erben

Der Kläger argumentierte, dass unklare Erbenverhältnisse die Verjährung hätten hemmen müssen. Doch das OLG Frankfurt wies dies zurück. Die Verjährungsfrist werde nicht durch Unklarheiten über die genaue Erbenstellung oder spätere Erbfälle unterbrochen. Selbst das Ableben eines Miterben nach Beginn der Verjährung ändere daran nichts, da die Nachlasspflegerin als Vertreterin der unbekannten Erben fungierte.

Fehlende Klage führt zum Verlust des Anspruchs

Das Gericht stellte fest, dass der Kläger bereits 2015 die Möglichkeit gehabt hätte, eine Feststellungsklage zu erheben oder andere verjährungshemmende Schritte einzuleiten. Da er dies unterließ, konnte er sich später nicht auf eine unklare Rechtslage berufen. Eine fehlerhafte rechtliche Bewertung des eigenen Anspruchs ist kein Grund, die Verjährung aufzuschieben.

Wer zu lange wartet, verliert

Dieses Urteil verdeutlicht, dass Erben und Vermächtnisnehmer zügig handeln sollten, wenn sie Ansprüche geltend machen wollen. Die gesetzliche Verjährungsfrist läuft unaufhaltsam – unabhängig von Unsicherheiten oder juristischen Fehleinschätzungen.

Denn wie es so schön heißt: „Wer zu spät kommt, den bestraft nicht nur das Leben – sondern auch die Verjährung!“

 

Kronkel und Otonkel #2

Kronkel und Otonkel #2

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Kronkel und Otonkel

Zwei Internetzspinnen auf Abenteuer

 

Ein Tag im Schnee und eine tolle Idee.

Als Juna morgens vom Duft der frisch in der Pfanne liegenden Eierkuchen erwachte, rannte sie gleich ans Fenster und sah das, was jedes Kinderaugenpaar an einem 30. Dezember erblichen will: Schnee!!! So viel Schnee. Es sah wahnsinnig gut aus und Juna vergaß die Eierkuchen und wollte am liebsten gleich raus in den Schnee. Sie rannte die Treppe hinunter, riss die Haustür auf und lief barfuß und im Schlafanzug hinaus. Es dauerte nicht lange bis eine entsetzte Mamastimme sie hineinzitierte. Bevor dies geschah, konnte Juna aber den Schnee noch riechen und die Schneelandschaft hören. Der Schnee roch nach erstarrtem Regen. Über allem lag eine weiße Decke, die alle Geräusche dämpfte. Sogar das Bellen von Ursulas Dackel Waldemar klang wie durch eine dicke Steppdecke. 

Juna setzte sich in die Küche an den Tisch und versuchte, den vorwurfsvollen Blicken der Mutter auszuweichen. „Sag mal liebes Kind, hast Du Dir vorher mal überlegt, wie unvernünftig das ist, sich ohne Schuhe und nur in einem Schlafanzug in den Schnee zu stellen?“ 

„Ähm, ja!“, sagte Juna. 

“Gut, dann hast du ja wenigsten hast nachgedacht, bevor Du Dich dafür entschieden hast“, erwiderte ihre Mama. 

Junas Mama servierte ihr einen wunderbaren Eierkuchen mit Nutella und einer Prise Zucker und Zimt. Am Tisch saß jetzt auch ihre kleine Schwester Emma. Sie mampfte schon längst den zweiten Pfannkuchen. Diesmal aber mit selbst gemachter Himbeermarmelade. Diese Marmelade färbte leider sehr schnell andere Sachen wie Tischdecken, Armlehnen, T-Shirts, Hosen, aber vor allem Teppich und Fußboden rot ein.

„Carolin!!!“, rief Papa Bernhard, entsetzt der Mutter zu: „Wir haben einen Himbeermarmeladenbefall auf dem Tisch!“ 

 „Ach Du meine Güte! Wieso holt denn keiner einen Lappen? Ruf sofort die Lappenhilfe an!“, rief Mama Carolin. 

In diesem Moment maunzte die Familienkatze Minka und schlängelte sich um Carolins Beine – aber ohne jeglichen Lappen und um den Himbeerfleck auf den Tisch durfte sie sich nicht kümmern, den Katze auf dem Esstisch ist viel schlimmer als Hund in der Badewanne, wenn man drin sitzt. Juna ging souverän zur Küchenspüle und kehrte mit einem „Tatütata“ zurück, um mit einem Wisch die Himbeeren vom Tisch zu wischen. Bernhard, der Papa, danke mit einem: „Achtung, Achtung, wir danken der Lappenhilfe für den Einsatz!“

Die ganze Familie saß am Tisch und die 8-jährige Emma lag allen in den Ohren, weil sie ständig nur einen Satz sagte: „Wann können wir raus in den Schnee und wo ist unser Schlitten?“

Dieser Satz wurde von Bernhard immer wieder mit dem gleichen Satz beantwortet: „Wenn wir alle satt sind.“ Dann nahm er sich einen weiteren Eierkuchen und schmierte auf diesen Nutella. Es dauerte für die Kinder so ewig, dass sie das Gefühl hatten, sie wären wieder rückwärts im Mittelalter angekommen.

Irgendwann war Familie Jürgenson mit dem Frühstück fertig. Besser gesagt: Papa Bernhard war endlich satt.

„Papa, jetzt hol schon endlich den Schlitten aus dem Keller!“, forderte Juna ungeduldig mit nachdrücklicher Stimme.

Der Vater ging in den Keller und es dauerte nicht lange, bis sie ihren Vater schimpfen hörten:

„Wer hat denn hier diesen ganzen alten Mist in den Weg gestellt? Wieso stehe ich mit einem Bein in einem Karton? Hier ist eine furchtbare Unordnung!“

Der Vater musste aufhören, zu schimpfen, denn er kam nicht umhin, sich daran zu erinnern, dass er das selbst alles dahin gestellt hatte. Solche Keller sind furchtbar gemein: Man kann da Sachen hinstellen, dann sieht man sie nicht mehr und schlussendlich vergisst man, dass man sie hat.

So eine Art Keller gibt es auch auf jedem Computer. Aber dazu später mehr. Jetzt haben wir keine Zeit, denn die Kinder wollen in den Schnee!

Endlich waren die Kinder im Schnee. Die Schlitten waren startklar. Juna und Emma trafen die Nachbarskinder. Ursulas Dackel Waldemar hatte nach 15 Minuten Dauerbellen endlich aufgegeben. Nun ertönten nur die Schreie der freudigen Kinder, die sich gegenseitig mit Schneebällen bewarfen. Es war der Klang eines wunderschönen Wintertages.

Zu den Nachbarkindern gehörten die Schmidtchen-Jungs. Alle Kinder tobten den ganzen Tag im Schnee. Sie schafften es, dass vor jedem Haus ein Schneemann stand. Zuletzt begannen sie den Bau eines Iglus, mussten wegen einbrechender Dunkelheit, einsetzendem Schneefall und kalten Händen aber die Baumaßnahmen abbrechen. Sie verabredeten sich für den nächsten Tag.

Juna und Emma gingen nach Hause und zogen gleich im Flur ihre mit Schnee belasteten Schuhe, Jacken und Hosen aus, als sich plötzlich von der Decke eine kleine Spinne an ihrem Faden abseilte und knapp vor Emmas Nase stoppte.

„Ihhhh, Hilfe, eine Spinne!“, schrie Emma und machte aus dem Stand einen weiten Sprung zurück. Papa Bernhard kam in den Flur gerannt und schaute beide Kinder erschrocken an.

„Was ist denn los? Hat sich jemand wehgetan“?“, fragte er besorgt.

 „Nein, Emma hat Angst vor der kleinen Spinne da.“ , sagte Juna. Sie zeigte auf die Spinne, die im Flur an ihrem Faden hin und her schwang. Papa Bernhard ging zu Emma und umarmte sie. Dann sagte er: „Emma, vor der kleinen Spinne da brauchst Du keine Angst haben. Sie hat wahrscheinlich mehr Angst vor uns und tut nur Fliegen etwas zuleide.“ Juna grinste, Emma schaute unglücklich zur kleinen Spinne.

Papa Bernhard sah zu den Kindern und sagte: „Spinnen sind sehr nützliche Tiere und wenn eine Spinne im Haus ist, dann fängt sie für einen die Mücken und Fliegen. Außerdem können nur Spinnen so wunderbare Netze bauen wie dieses da oben in der Ecke. Schaut nur hin, so etwas Schönes und Geordnetes schafft nur eine Spinne, mit ihrem Faden zu spinnen!“

Emma war mit der ganzen Situation noch nicht im Reinen und wollte in das warme Wohnzimmer. Bernhard servierte seinen beiden Töchtern einen heißen Kakao, während sie es sich unter dicken Decken auf dem Sofa vor dem Kamin bequem machten.

Juna holte ihren Laptop und wollte Emma etwas über Spinnen aus dem Internet zeigen. Dann aber fragte Emma: „Wie funktioniert das Internet eigentlich?“ Juna sah sie an und sagte: „Na ganz einfach mit einem Netz von Kabeln und dazwischen sind Router und Server.“ Emma fragte: „Was machen die Router und Server? Wie sehen die denn aus?“ Juna rief nach ihrer Mutter, denn sie wusste, dass egal was Juna jetzt erzählte, ihre kleine Schwester es entweder wirklich nicht verstand oder nicht verstehen wollte. Das war immer so, wenn Juna ihr etwas erklärte.

Mama Carolin erschien im Wohnzimmer, setze sich auf einen Sessel neben dem Sofa und fragte: “Na ihr Schneehasen, was gibt es denn für ein Problem?“ Juna erklärte, dass Emma gern wissen wollte, wie das Internet funktioniert. Die Mutter holte tief Luft und sagte: „Also Folgendes… ich muss mal kurz überlegen…..mmmm.

 Juna sah ihre Mama an und sagte: „Mensch Mama, als Informatikerin dürfte das für Dich doch wirklich pillepalle sein!“ Die Mutter runzelte die Stirn und sagte: „Stimmt, deswegen ist es ja auch so schwierig mit der Erklärung. Versuch Du doch mal jemanden zu erklären, wie man läuft.“

Carolin holte noch einmal tief Luft und setzte an zum Erklärungsmarathon: „Das Internet ist ein riesiges über die ganze Welt verteiltes und mit Kabeln oder Funk verbundenes Netz aus Computer. Sozusagen ein weltweites Netzwerk. Natürlich gibt es noch einzelne Gebiete, wo es kein Internet gib. Dies ist dort, wo keine Menschen leben. Dort wo Menschen wohnen und arbeiten gibt es aber auf der ganzen Welt den Zugang zum Internet. Weil so die ganze Erde mit dem Internet umspannt ist, wird es als weltweites Netzwerk bezeichnet. Wenn Juna mit ihrem Laptop im Internet „surfen“ möchte, dann muss sie dort erst einmal hineinkommen. Sie braucht einen Zugang zum Internet, quasi eine Tür ins Netz.

 Diesen Zugang liefern die Internetanbieter. Weil diese Unternehmen jemanden das Internet „bereitstellen“ werden sie „Provider“ genannt. Der Begriff kommt aus der englischen Sprache. Er bedeutet übersetzt „versorgen, „bereitstellen“. Mit einem Provider schließt derjenige, der das Internet nutzen will, einen Vertrag. Wenn zwei Personen einen Vertrag schließen, dann verpflichten sie sich gegenseitig. Der Provider verpflichtet sich, den Zugang zum Internet bereitzustellen, und der Nutzer bezahlt Geld dafür. Verträge kann nicht jede Person schließen, sondern nur diejenigen die voll geschäftsfähig sind. Dies bedeutet, dass sie sich rechtlich wirksam zu etwas verpflichten können und sich dann auch daran halten müssen. In Deutschland und in den meisten anderen Ländern ist ein Mensch mit 18 Jahren voll geschäftsfähig. Juna kann also den Vertrag nicht schließen, sondern wir Eltern haben den Vertrag mit unserem Provider geschlossen. Juna kann das Internet mit unserer Zustimmung nach den von uns aufgestellten Regeln nutzen.

Nachdem wir den Vertrag mit unserem Provider geschlossen haben, hat dieser uns einen Router geschickt. Dies ist ein technisches Gerät, dass die „Tür“ zum Internet öffnet. Dieses Gerät wird an ein Kabel, so wie früher das Telefon angeschlossen. Dieses Kabel verläuft dann aus unserem Haus und trifft in einem großen grauen Kasten, der meistens an der Straße steht, auf andere Kabel, die miteinander durch Verteilerstecker verbunden sind. So geht es über immer weitere Kabel zu anderen Kabeln quer durch Deutschland und die ganze Welt. Weil dieser erste Router auch das WLAN, also Internet über Funk bei uns im Haus erzeugt, wird das Gerät auch WLAN-Router genannt. Doch zurück zum Internet. Wenn Juna jetzt durch die Tür ins Internet geht, dann muss ihr Computer erst einmal eine „Anfrage“ senden, wo er hin will. Die Anfrage ist eine Adresse einer bestimmten Webseite, die auf einem bestimmten Server liegt. Alle technischen Geräte, die im Internet sind, haben so eine IP-Adresse. Diese ist notwendig, um ein Gerät im Internet zu finden. IP ist die Abkürzung für Internetprotokoll. Unter einem Protokoll versteht man einen immer gleichen Ablauf oder eine bestimmte Form, die eingehalten werden muss. Bei dem Internetprotokoll ist dies eine ganz bestimmte Abfolge von Zahlen. Das Prinzip ist ähnlich wie bei der Telefonnummer.

Der Hausrouter schickt also die Anfrage an einen weiteren Router, der dann weiter verbindet, zu einem Server. Router sind also technische Geräte, die der Anfrage den Weg leiten. Sie sind diejenigen, die der Anfrage eine Route, also einen festgelegten Weg geben und die Anfrage so zu einem zuständigen Server leiten.

Ein Server ist ein Computer ohne Bildschirm. Der Bildschirm wird nicht gebraucht, weil auf dem Computer ausschließlich Daten liegen, die jemand abrufen kann. Der Server stellt also Daten wie beispielsweise zur Darstellung einer Internetseite bereit. Er serviert also nicht Nudeln mit Tomatensoße oder Vanillepudding, sondern Daten. Das kann natürlich auch ein Bild von Nudeln mit Tomatensoße sein….

Damit Junas Computer wieder geantwortet werden kann und die Daten an den Computer gesendet werden können, braucht er eine Anschrift. Er hat auch eine IP-Adresse, die er mit seiner Anfrage gleich mitgesendet hat. So können die Daten von dem Server, also dem Computer, auf dem die Daten gespeichert sind, abgerufen werden und finden den Weg im Internet zu Junas Computer. Weil so viele Computer miteinander verbunden sind, wird das World Wide Web, übersetzt das weltweite Netz, Gewebe, Gespinst oder Matrix auf Internet genannt. Ähnlich einem Spinnennetz. Das Internet ist also auch systematisch, aber nicht so schön symmetrisch, also ebenmäßig/gleichartig wie ein Spinnennetz. Und so funktioniert das Internet.“

Als die Mutter ihre lange Erklärung beendet hatte, war es fast ganz still im Wohnzimmer. Nur das Schnurren der Katze und das leise Schnarchen von Papa Bernhard war zu hören…

Datenschutzverstöße von Beschäftigten

Datenschutzverstöße von Beschäftigten

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

 

Wer haftet eigentlich wie, wenn der Mitarbeiter nicht datenschutzkonform handelt? Ist prinzipiell das Unternehmen in der Haftung oder trifft es den Mitarbeiter? Diese Haftungsfrage lässt sich bei einer differenzierten Betrachtung beantworten.

Nutzung der Daten fällt völlig aus dem Rahmen

Benutzt der Mitarbeiter die Daten widerrechtlich für eigene private Zwecke, dann fällt die Handlung des Beschäftigten so sehr aus dem Rahmen, dass er im Sinne des Datenschutzrechtes allein für sein Handeln als Verantwortlicher gerade zu stehen hat. Dies ist damit zu begründen, dass der Mitarbeiter die persönlichen Daten anderer so zweckentfremdet und ausufernd nutzt, dass ein sog. Mitarbeiterexzess gegeben ist.

Ein solcher liegt beispielsweise vor bei der:

  • Nutzung von Telefonnummern zum Aufbau privater Kontakte
  • Abfragen von Kontoinformationen zur Nutzung in einer privaten zivilrechtlichen Streitigkeit.
  • Nutzung von polizeilichen Auskunftssystemen für die eigene private politische Vereinsarbeit.

Das Unternehmen haftet in diesem Fall folglich nicht. So sieht es auch die Entschließung der 97. Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder vom 3. April 2019. Aber die Ausnahme bestätigt die Regel: Hat die Geschäftsleitung von dem Verhalten des Mitarbeiters Kenntnis und duldet dieses, so sitzen beide im selben Boot und haften gemeinsam.

Mitarbeiter handelt innerhalb der unternehmerischen Tätigkeit nicht datenschutzkonform

Handelt ein Mitarbeiter innerhalb der unternehmerischen Tätigkeit nicht datenschutzkonform, wird dessen Handlung dem Unternehmen als Verantwortlicher im Sinne des Datenschutzrechtes zugerechnet. Dies bedeutet, dass das Unternehmen haftet. Ob das Unternehmen den Beschäftigen in Regress nehmen kann, wird im Einzelfall nach den Grundsätzen des sog. innerbetrieblichen Schadensausgleichs festzustellen sein. Der Grad der Haftung hängt vom Grad des Verschuldens des Beschäftigten ab. Bei einer fahrlässigen Datenschutzverletzung hat das Unternehmen in der Regel keinen Anspruch auf Ausgleich, da der Beschäftigte für das Unternehmen und in dessen Interesse gearbeitet hat.

Schadenersatz des Betroffenen

Derjenige, dessen persönliche Daten widerrechtlich verwendet wurden, hat gegen den Verantwortlichen einen Auskunftsanspruch und Schadenersatzanspruch.

Bußgeld durch die Behörde

Die Frage, ob der Mitarbeiter im Exzess oder das Unternehmen im Falle eines nicht exzessiven Datenschutzverstoßes eine Ordnungswidrigkeit begangen hat und hierfür haftet, ist derzeit in der Rechtsprechung und Literatur strittig. Die einen sind der Meinung, dass aus der Verordnungsbegründung (Erwägungsgründen) der DS-GVO der kartellrechtliche sog. funktionale Unternehmensbegriff anzuwenden ist. Die anderen sprechen sich gegen eine Anwendung dieses Begriffs aus. Der funktionale Unternehmensbegriff wird verwendet, um möglichst viele wirtschaftliche Gebilde in den Anwendungsbereich des Kartellrechts einzuordnen. Es geht also lediglich um die Feststellung, dass ein Zusammenschluss von Personen stattfindet und die wirtschaftliche Tätigkeit irgendwie funktioniert, egal welche Rechtsform er hat und wie er sich finanziert. Zusätzlich hierzu sieht die DS-GVO vor, dass grundsätzlich dem EU-Recht der Vorrang vor dem nationalen Recht der Mitgliedsstaaten hat.

Hierin liegt das Dilemma, denn die Anwendung des funktionalen Unternehmensbegriffs lässt sich mit dem deutschen und im Übrigen auch mit dem österreichischen Ordnungswidrigkeitenrecht nicht vereinbaren. Eine juristische Person, also das Unternehmen als GmbH, UG oder AG, kann nur eingeschränkt Täter im Sinne des Ordnungswidrigkeitengesetzes sein. Erforderlich ist, dass ein Fehlverhalten der vertretungsberechtigten Organe, in der Regel der Geschäftsführung, nachgewiesen wird.

So ist es auch nicht verwunderlich, dass der österreichische Verwaltungsgerichtshof im Jahr 2020 der vorrangigen Anwendung von EU-Recht eine Absage erteilt hat (ÖVwGH, Erkenntnis vom 12.5.2020 – Ro 2019/04/0229). In Deutschland ist die Rechtsprechung uneins. Das LG Bonn (Urteil v. 11.11.2020 – 29 OWi 1/20) hat eine unmittelbare Haftung angenommen. Das LG Berlin hat ebenso wie der ÖWwGH eine unmittelbare Haftung des Unternehmens verneint (LG Berlin, Beschluss vom 18.2.2021, Az. 526 OWi LG 212 Js-OWi 1/20 (1/20). Gegen den Beschluss des LG Berlin wurde Beschwerde eingelegt. Es bleibt abzuwarten, wie das Kammergericht Berlin entscheidet und ob es zu einer Vorlage zum EuGH kommt.

Fakt ist, dass es für Unternehmen derzeit keine Rechtssicherheit gibt, ob eine Haftung besteht oder nicht. Unklar sind auch die Maßstäbe für eine zurechenbare Verantwortlichkeit. Fakt ist auch, dass es gar nicht so weit hätte kommen dürfen. Es ist auch bei EU-Verordnungen ein Mindestmaß an sprachlicher Klarheit zu erwarten und nicht erklärbar, weshalb nicht direkt in der Verordnung eine eindeutige Regelung bezüglich der unmittelbaren Verbandshaftung von Unternehmen erfolgt ist.

 

 

 

 

 

 

Kronkel und Otonkel #2

Kronkel und Otonkel #1

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Kronkel und Otonkel

Zwei Internetzspinnen auf Abenteuer

Bevor Konkel und Ottonkel auf die Welt kamen.

Es war am 29. Dezember, als sich Juna an ihren Laptop setzte. Draußen stöberte der Schnee und legte sich genüsslich auf die Dächer, Straßen und Wiesen in der Stadt. Es wurde langsam dunkel und der Schnee musste wohl oder übel auf den nächsten Morgen warten, bis er von Kinderhänden zu Schneebällen und Schneemännern geformt wird. 

Juna überlegte und zog ihre Stirn in Falten. Sie sah dabei sehr wichtig aus und fühlte sich auch so. Immerhin war es ihre erste richtige Programmierung. Neben ihr saß ihr liebstes Lieblingskuscheltier und sah zu, wie die Kinderhände über die Tastatur sausten, als ob sie dies schon immer gemacht haben. Muffel war ein Kuscheltier mit Rang und Namen. So ein Kuscheltier wünschte sich jedes Kind. Es war ein Weihnachtsmaushasenmonster! Jetzt fragt ihr Euch sicher, was bitteschön ein „Weihnachtsmaushasenmonster“ ist. Ich kann Euch sagen, dass es verdammt niedlich aussieht und wuscheliges weiches weinrotes Monsterfell hat. Es trocknet jede Träne und freut sich über jedes Kinderlachen.

„Weihnachtsmaushasenmonster“ sind sehr zuverlässig. Sie bemühen sich stets in der Nähe seines Kindes zu bleiben. Es hat große, ja riesig große niedliche Kulleraugen und ein breit lächelndes Mäulchen, in das genau ein halber Lebkuchen hinein passt. Deswegen war der Mund auch selbst immer Sommer noch etwas klebrig. Deswegen hatte das Weihnachtsmaushasenmonster von Zeit zu Zeit einen Wollmausschnurrbart. Das wiederum führte dazu, dass die anderen Kuscheltiere im Kinderzimmer Muffel des Öfteren mit Pierre Camembert, dem Nackenkissenkuscheltier aus Frankreich verwechselten. Das gefiel Muffel gar nicht. Trotzdem hatte Muffel immer gute Laune, obwohl der Name das eigentlich nicht vermuten lässt. 

Muffel trug immer einen wunderschönen gehäkelten Blumenstrauß mit roten und blauen Blumen in seiner rechten Hand. In der Linken hatte er nicht einfach einen Nuckel, sondern genau „den“ Nuckel, den Juna als letzten genuckelt hatte. Muffel kam genau an dem Tag zu Juna, als sie aufhörte zu nuckeln.

Vor neun Jahren sind Muffel und Juna am Heiligabend unzertrennlich geworden. Am Anfang konnte Juna Muffel überhaupt nicht leiden, weil er der Grund dafür war, dass Juna ihren Nuckel an ihn abgeben musste. Es war so, dass Juna eine sehr nette ältere Nachbarin Namens Ursula hat. Und Ursula war damals immer sehr neugierig, wenn es um Juna und ihren Nuckel ging. Als Juna 4 Jahre alt war, fragte die Nachbarin jedes Mal, wenn sie Juna und ihre Mutter auf der Straße traf, wann das Kind denn endlich den Nuckel abgeben würde. Irgendwann hat sich Juna über diese Ursula so sehr geärgert und fand es blöd, dass sie sich jedes Mal erklären musste, wieso denn so ein erwachsenes Kleinkind noch gerne nuckelt, dass sie einmal zu Frau Ursula sagte: „Wenn an Weihnachten ein Maushasenmonsterkuscheltier zu mir kommt, dann höre ich auf zu nuckeln.“ Juna war felsenfest davon überzeugt, dass keine Maushasenmonsterkuscheltiere auf dem Erdball zu finden seien und dass es sie auf gar keinen Fall zu kaufen gab.

Leider hatte Juna nicht mit der Einfältigkeit von Ursula gerechnet. An dem besagten Heiligabend klingelte es an der Haustür. Ursula stand mit einem breiten Grinsen im Hauseingang. Gott bewahre, so ein breites Grinsen hatte Juna zuvor noch bei keinem Menschen gesehen. Nicht einmal bei ihrer Mama, wenn sie Juna mit Puffreis überraschte. Juna war erschrocken und neugierig zugleich, als Ursula plötzlich hinter ihrem Rücken aus der linken Hand ein selbst gehäkeltes Kuscheltiermaushasenmonster hervorzog und Juna direkt ins Gesicht hielt. Ahhhhhhhhhh! Ursula sagte zu Juna, dass sie dieses wunderschöne Kuscheltier extra für sie gehäkelt und aufgeplüscht hätte. Juna verschlug es die Sprache. Sie konnte nur ein „Grieehhnnn“ stammeln, denn ihre Gefühle konnte sie in diesem Moment nicht anders ausdrücken.

Während ihre Mama und Ursula sich über dieses wunderhübsche Tier unterhielten und Junas Mama mehrfachen Dank aussprach, sowie eine prall gefüllte Schachtel der besten selbst gebackenen Weihnachtsplätzchen an diese aufdringliche, sich in die Nuckelangelegenheiten von Juna einmischende, Nachbarin verjubelte, betrachtete Juna das Kuscheltier in ihren Händen. Auch wenn Juna gerade aufs äußerste muffelig war, musste sie dieses verrückt aussehende „Weihnachtsmaushasenmonster“ anlächeln. „So ein Mist!“, dachte Juna. Nachdem Ursula nach einer gefühlten Ewigkeit endlich von einsetzendem Nieselregen von der Haustür vertrieben wurde, ging Juna in das Wohnzimmer und widmete sich ihren Geschenken.

Es war ein wunderschöner Weihnachtsabend, bis auf die Tatsache, dass da in der Ecke jetzt ein „Weihnachtsmaushasenmonster“ ständig traurig und ein wenig irre auf ihren Nuckel im Mund starrte. Es war jedes Mal für Juna ein furchtbarerer Anblick in diese großen niedlichen Kulleraugen schauen zu müssen. Wer hätte auch gedacht, dass Ursula so einen hinterhältigen Plan aushecken würde und ein schier nicht auf der Welt befindliches Kuschelvieh einfach selbst erschaffen würde! 

Als Juna dann ins Bett ging, hatte sie ein Erbarmen mit dem Viech und konnte es nicht über das Herz bringen es einsam und verlassen in der staubigen Wohnzimmerecke zwischen Heizung und Bücherregal liegen zu lassen. Sie nahm es mit in ihr Bett. Diese Geste veränderte alles, denn jetzt wollte Juna plötzlich nicht mehr nuckeln, sondern Muffel. Furchtbar. Eine sehr komische Situation. Juna kann sich noch immer nicht erklären, was damals passierte, aber seit diesem Heiligabend mochte Juna ihren Nuckel nicht mehr und seitdem hat Muffel ihn in seiner rechten Hand, auch wenn er mit seiner rechten Hand gerade einen Lebkuchen isst.

Juna sah Muffel an. „Was guckst Du denn so? Keine Angst, ich werde Dich nicht vernachlässigen“, sagte sie zu ihm. „Ich programmiere doch nur ein bisschen, denn Programmierung ist eine wichtige Angelegenheit. Ohne diese würde es gar keine Informatik geben!“ Das Kuscheltier sah Juna an: „Was! Habe ich Dir nicht erklärt, was programmieren ist? Passt Du denn nie auf, wenn ich mir Dir vor dem Computer sitze?“, zischte Juna ihr Kuscheltier an. Muffel glotzte wie immer mit seinen großen Kulleraugen und war so niedlich, dass sie Muffel seine Unwissenheit nicht weiter vorwerfen konnte.

„Na gut, ich will Dich informieren und dass bedeutet, dass ich Dir erkläre, was Informatik, Wissenschaft, Computer und Programmieren ist“, sagte Juna und erklärte: „Mit dem Wort „Informatik“ wird ausgedrückt, was Menschen mit Computern, also mit besonderen elektronischen Geräten machen, wenn sie sich damit sehr gut auskennen und noch dazu herausfinden wollen, was sie alles noch so mit Computern machen können. Wenn ein Mensch sich mit etwas total gut auskennt, sagt man, dass er viel Wissen darüber hat. Das kann Wissen über die Natur, den Wald, Wiesensumpfdotterblumen, Tiere, Mathematik, Kunst, Astronomie, Physik, Chemie oder eben auch Wissen über Computer sein. Wenn der Mensch sich nur noch damit beschäftigt und er sich dazu berufen fühlt, alles darüber herauszufinden, und auch neue Dinge darüber herausfinden will, die bis jetzt niemand entdeckt hat, dann ist der Mensch ein Wissenschaftler und das was er macht eine Wissenschaft. Wissen ist also die Bezeichnung für ganz viele Informationen über ein ganz bestimmtes Thema, dass viele Menschen interessiert und sie sicheres Wissen darüber erlangen wollen. Wenn sich ein Mensch mit einer Sache die eigentlich ganz einfach ist lange beschäftigt und andere den Eindruck haben, dass er sich umständlich anstellt. Zum Beispiel, wenn jemand ewig braucht und ein großes Tohuwabohu, um sein Hausaufgabenheft aufzuschlagen. Dann gibt es das Sprichwort: „Mensch, mach keine Wissenschaft daraus!““

Jetzt müssen wir noch über die besonderen elektrischen Geräte sprechen. Elektrisch bedeutet, dass die Geräte nur mit Strom zum Beispiel aus der Steckdose funktionieren. Juna erhob den Zeigefinger und sagte in einem eindringlichen Ton, so wie ihre Mama manchmal zu ihr sprach: „Strom kann auch gefährlich sein mein Muffel! Wenn man einen elektrischen Schlag bekommt, weil man das Stromkabel falsch bedient oder die Steckdose, dann ist das für Dich sehr gefährlich! Wenn der Strom durch Deinen Körper fließt, dann kann er Deinen Herzschlag aus dem Takt bringen und das ist lebensgefährlich! Also mein lieber Muffel: Nie allein an die Steckdose oder das elektrische Kabel! Du musst auf Dich aufpassen. Ich habe Dich so unheimlich lieb, dass ich auf jeden Fall vermeiden möchte, dass Dir etwas Schlimmes passiert!“

„So, jetzt aber zurück zu den elektrischen Geräten“, sagte Juna und erklärte dem mittlerweile etwas müde wirkendem Muffel: „Diese Geräte heißen Computer. Das Wort kommt aus dem Englischen und bedeutet rechnen. Deswegen nennt man die Geräte in der deutschen Sprache auch Rechner. Wenn ich also am Rechner sitze, dann ist das mein Laptop, ein Computer. Nun ahnst Du bestimmt, was der Rechner macht: Genau, der macht nix anderes als rechnen. Rechnen findet der voll spitze und am liebsten mag der Rechner, wenn jemand ihm sagt, was er rechnen soll. Der Rechner wird deshalb mit Informationen gefüttert, die aussehen wie Rechenaufgaben. Weil der Computer sehr gerne rechnet, kann er das richtig gut. Viel besser und genauer als ein menschliches Gehirn. Solche Aufgaben wie 1+1 = 2 oder 80: 8 = 10 sind für den pillepalle. Davon wird der nicht „rechensatt“. So ein Computer braucht schwierige Aufgaben. Solche Aufgaben nennt man mathematische Gleichungen und wenn ganz viele Gleichungen miteinander verbunden und geplant aneinandergereiht werden, entsteht ein Rechenvorgang. Das nennt man in der Mathematik, der Wissenschaft über Zahlen und geometrische Formen, dann einen Algorithmus und so entsteht eine Programmierung. Die Programmierung ist also ein Rechenplan für den Computer. Und jetzt Muffel kommt der absolute Knaller! Mit so einer Programmierung, das nennt man in der englischen Sprache auch „Code“, kann man dem Computer sagen, was er machen soll! Weil der Rechner eigentlich nur mit Strom funktioniert und Strom nur „An“ und „Aus“ gehen kann, versteht der Computer nur „An“ und „Aus“. Man kann also seinem Rechner nur sagen, was er machen soll, wenn man sog. binäre also paarweise Zahlenfolgen mit den Zahlen „0“ und „1“ verwendet.“

Juna überlegt und sagte dann: „Weil das mit dieser 01011100 oder der 010001100 aber total schwierig in den Computer einzugeben ist, haben die Menschen „Programmiersprachen“ erfunden. Da gibt es ganz verschiedene Sprachen, also verschiedene mathematische Übersetzungen von „0“ und „1“ in Gleichungen. Diese heißen zum Beispiel:

  • Javascript
  • Java
  • C und C++
  • C# (C Sharp)
  • Visual Basic
  • PHP
  • Python
  • Scratch
  • Delphi/Object Pascal
  • Swift
  • SQL
  • HTML & CSS“

Juna gähnte, Muffel kippte müde nach vorne auf die Tastatur. Jetzt war es Zeit, ins Bett zu gehen. Sie schaltete ihren Laptop aus, putzte ihre Zähne und Muffels Mäulchen. Sodann kuschelte sie sich in ihr warmes Bett mit Wärmflasche an den Füßen und drückte Muffel fest an sich.

Draußen wartete schon ganz schön viel Schnee und der stöberte ungeduldig über die Dächer der Stadt.

 

 

 

 

 

 

 

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Gleichberechtigung in Sachen Mütze

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

 

Das Bundesarbeitsgericht hat im Jahr 2014 die Gleichberechtigung für das Tragen von Pilotinnen-Mütze hergestellt.

Zum Sachverhalt: Eine deutsche Fluggesellschaft schloss mit dem Betriebsrat eine Betriebsvereinbarung über die Dienstkleidung des Personals. Darin wurden die Uniformteile für Damen und für Herren getrennt minutiös geregelt. Während es den Piloten zwingend vorgeschrieben war die Pilotenmütze, in der Öffentlichkeit zu tragen, wurde es den Pilotinnen freigestellt, ob sie ihre Pilotenmütze in der Öffentlichkeit tragen wollen oder nicht. Gegen diese Regelung klagte ein Pilot. Er hatte seine Cockpitmütze nicht bei sich geführt und wurde deswegen von einem Flug abgesetzt. Er berief sich auf die Unwirksamkeit der Tragepflicht, weil diese ihn wegen seines Geschlechts diskriminiere.

Nach der Vorinstanz, dem Landesarbeitsgericht Köln, lag keine Ungleichbehandlung vor.

Das Landesarbeitsgericht Köln (Az. 5 Sa 549/11) hatte entschieden, dass die Tragepflicht für Piloten nicht gegen das Benachteiligungsverbot des § 7 Abs.1, Abs. 5 iVm § 1 AGG verstößt. Piloten werden gegenüber dem anderen Geschlecht wegen der Tragepflicht nicht herabgesetzt. Der Pilot würde durch die Verpflichtung zum Tragen der Mütze nicht wegen seines Geschlechts benachteiligt, da die Betriebsvereinbarung an mehreren Stellen zwischen den Geschlechtern differenziere wie beispielsweise zwischen Blusen mit Accessoires für Damen und Hemden mit Krawatte für Herren.

Das BAG stellt Ungleichbehandlung fest.

Das Bundesarbeitsgericht (1. Senat, Urteil vom 30.09.2014, Az. 1 AZR 1083/12) bejahte die Ungleichbehandlung. Es handelt sich bei der durch die Betriebsvereinbarung vorgenommenen Gruppenbildung zwischen dem männlichen und weiblichen Personal um eine Regelung, die gegen das Gleichbehandlungsgebot des § 75 BetrVG verstößt. Die nur für Piloten geltende Tragepflicht der Mütze in der Öffentlichkeit ist nicht gerechtfertigt. Dies ergebe sich schon daraus, dass nach einer Regelung der strittigen Betriebsvereinbarung über die Gestaltung der Frisur von Pilotinnen die Frisur dem Tragen der Mütze nicht entgegenstehe. Danach sollten Pilotinnen ihre Frisur in „Klassik und Eleganz“ dem Hut anpassen. Folglich gab es keinerlei sachliche Gründe für eine unterschiedliche Behandlung der Geschlechter.

Chapeau!

 

Das Spital im Mittelalter

Der Begriff des Urlaubs früher und heute

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Urlaub im heutigen Sinn

Heute ist nach § 1 Bundesurlaubsgesetz unter Urlaub der Erholungsurlaub zu verstehen. Es handelt sich um eine arbeitsfreie Zeit, die jede Arbeitnehmerin und jeder Arbeitnehmer von seinem Arbeitgeber mindestens für 24 Werktage im Jahr beanspruchen kann. Urlaub ist heute ein besonder Fall des Lohns ohne Arbeit. Neben dem bezahlten Urlaub ist es auch möglich, dass sich die Arbeitgeberin und der Arbeitnehmer über unbezahlten Urlaub einigen. Kern der Aussage des Begriffs Urlaub ist also die Nichtleistung von Arbeit und Dienst ohne Rechtsnachteile für die Arbeitnehmerin. Es handelt sich um ein erlaubtes Fernbleiben von der Arbeit.

Urlaub im früheren Sinn

Der Begriff des Urlaubs ist bereits im mittelhochdeutschen Begriff des „urloup“ (DWB, Grimm, Bd.24, Sp. 2466) bekannt. In der ursprünglichen Bedeutung stand die „Erlaubnis“ im Mittelpunkt. Nachweisbar ist die Benutzung des Wortes für die Umschreibung einer „Entlassung“, „Entlastung“ oder „Erlaubnis zu gehen“. (DWB, Grimm, Bd. 24., Sp. 2466). In einige mittelalterlichen Rechtsquellen lässt sich der Begriff „Urlaub“ bereits als Umschreibung für das genehmigte entfernen vom Dienst bzw. Dienstort nachweisen. So beispielsweise in der Schulordnung der Stadt Saalfeld aus dem Jahr 1458:

 „Dafern er auch in seinen oder andern Geschäfte zu verreisen hätte, sollte er sowol von dem Pfarrherrn aus dem Rat und Altarleuten Urlaub nehmen.“ (Stadtarchiv Saalfeld UrkNr. XXX  )

In den folgenden Jahrhunderten hat sich dieses Wort in seiner Bedeutung zu der uns heute bekannten Aussage gewandelt, dass der Arbeitnehmer berechtigt und bezahlt von seiner Arbeit fern bleiben darf. Als Bedeutung für eine „Erlaubnis“ ist es indes heute gar nicht mehr in Gebrauch.

 

Betriebsvereinbarung über Beschäftigtendatenschutz

Betriebsvereinbarung über Beschäftigtendatenschutz

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Was ist eine Betriebsvereinbarung?

Eine Betriebsvereinbarung ist die Einigung zwischen dem Betriebsrat und dem Arbeitgeber über einen Regelungsbereich im Betrieb. Sie gliedert sich in einen schuldrechtlichen Teil, der die Rechtsbeziehung zwischen dem Betriebsrat und dem Arbeitgeber regelt sowie einen normativen Teil, der verbindliche Regelungen über die Arbeitsverhältnisse der Angestellten im Unternehmen.

Eine gültige Betriebsvereinbarung liegt vor, wenn:

  • Der Betriebsrat und der Arbeitgeber eine wirksame Vereinbarung geschlossen haben.
  • Diese schriftlich niedergelegt ist (§ 77 Abs. 2 BetrVG).
  • Sie zulässige Regelungen über die Arbeitsverhältnisse enthält.

Was ist unter Beschäftigtendatenschutz zu verstehen?

Der Begriff umschreibt die Verarbeitung von personenbezogenen Daten der Beschäftigten im Rahmen des Arbeitsverhältnisses. Unter solchen personenbezogenen Daten sind alle Einzelangaben über persönliche und sachliche Verhältnisse eines bestimmten oder bestimmbaren Beschäftigten zu verstehen.

Kann in einer Betriebsvereinbarung der Beschäftigtendatenschutz geregelt werden?

Ja, die europäische Datenschutzgrundverordnung legt in § 88 Abs. DS-GVO (Datenschutz Grundverordnung) ausdrücklich fest, dass die einzelnen Mitgliedsstaaten durch Rechtsvorschriften oder Kollektivvereinbarungen den Beschäftigtendatenschutz regeln können. Die Betriebsvereinbarung ist eine Dienstvereinbarung im Sinne der europäischen Datenschutzverordnung.

Warum ist eine Betriebsvereinbarung über den Beschäftigtendatenschutz notwendig?

Durch das Bundesdatenschutzgesetz werden in § 26 BDSG (Bundesdatenschutzgesetz) Regelungen über die Datenverarbeitung zum Zwecke des Beschäftigungsverhältnisses aufgestellt. Diese sind aber nicht abschließend. Um die individuellen Gegebenheiten und Bedürfnisse im Einzelfall für einen ganz bestimmten Betrieb regeln zu können, ist eine Betriebsvereinbarung für die Rechtsklarheit über die Rechte und Ansprüche von Arbeitgeber, Betriebsrat und Arbeitnehmer äußerst ratsam. Die Betriebsvereinbarung kann beispielsweise die Videoüberwachung, den Einsatz von künstlicher Intelligenz, die Durchführung von Mitarbeiterkontrollen oder die Leistungsüberwachung regeln.

Durch die Betriebsvereinbarung können nicht nur Konkretisierungen des BDSG oder der Datenschutz zu Gunsten der Beschäftigen verbessert werden, sondern es darf durch sie auch zulasten der Beschäftigten von den Regelungen des BDSG abgewichen werden.

In einem solchen Fall muss eine sorgfältige Abwägung zwischen den Interessen des Arbeitgebers an einer bestimmten Datenverarbeitung und dem Persönlichkeitsrecht getroffen werden. Hier ist vor allem § 75 Abs.2 BetrVG zu beachten, wonach Arbeitgeber und Betriebsrat die freie Entfaltung der Persönlichkeit der im Betrieb beschäftigten Arbeitnehmer zu schützen und zu fördern haben.

 

 

 

 

 

 

 

 

Ein Kind hat Anspruch auf Wahrung seines Persönlichkeitsrechtes

Ein Kind hat Anspruch auf Wahrung seines Persönlichkeitsrechtes

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Rechtsfähigkeit und Geschäftsfähigkeit sind zwei Paar Schuhe.

Die Rechtsfähigkeit muss von der Geschäftsfähigkeit unterschieden werden. Rechtsfähigkeit bedeutet, dass ein Mensch es selbst Träger von Rechten und Pflichten sein kann, § 1 BGB. Die Geschäftsfähigkeit bezeichnet das eigenständige rechtsverbindliche Handeln im Rechtsverkehr. Bei Kinder tritt mit 7 Jahren die beschränkte Geschäftsfähigkeit ein, § 106 BGB. An diesem Alter kann ein Kind unter bestimmten engen Voraussetzungen (§ 110 BGB Taschengeld oder § 107 BGB) selbst rechtsverbindlich Verträge schließen kann. Mit 18 Jahren ist ein Mensch nach dem deutschen Recht volljährig und damit voll geschäftsfähig, § 2 BGB.

Beginn und Ende Rechtsfähigkeit

Die Rechtsfähigkeit ist vom Alter des Menschen unabhängig. Sobald das Kind geboren ist, in der juristischen Definition: Mit dem vollständigen Austritt aus dem Mutterleib, ist das Kind voll rechtsfähig, § 1 BGB. Die Rechtsfähigkeit endet mit dem Tod. Als im Jahr 1900 das BGB in Kraft trat, hat es keiner für notwendig erachtet dies aufzunehmen, da sich dies aus der Natur der Sache ergebe. § 1922 Abs.1 BGB als zentrale Norm des Erbrechts bestimmt dies mittelbar, indem festgeschrieben ist, dass mit dem Tod eines Menschen der Erbfall eintritt.

Kind hat eigenes Persönlichkeitsrecht.

Jedes Kind hat ein Persönlichkeitsrecht. Das Kind hat nach Art. 2 Abs.1 und Art. 1 Abs.1 GG (Grundgesetz) ein eigenes gesetzlich normiertes Persönlichkeitsrecht. Zudem ist der Persönlichkeitsschutz des Kindes Bestandteil des elterlichen Erziehungsrechtes nach Art. 6 GG. Eine spezielle Ausprägung des Persönlichkeitsrechtes ist das Recht am eigenen Bild.

Das Persönlichkeitsrecht des Kindes ist besonders zu schützen.

Das Persönlichkeitsrecht des Kindes ist von allen Personen, vor allem aber von den Eltern zu beachten und zu schützen! Das Recht des Kindes, beispielsweise am eigenen Bild ist, bedarf eines besonderen Schutzes. Das Kind befindet sich in seiner Persönlichkeitsentwicklung. Verletzungen des Persönlichkeitsrechts durch Fotos oder Videoclips im Internet können diese Entwicklung dauerhaft und nachhaltig beeinträchtigen. Fakt ist: Das Netz vergisst nichts. Einem Kind ist vor allen Dingen also Achtung seiner Person entgegenzubringen. Es ist ein gleichwertiger Teilhaber des Persönlichkeitsrechtes wie ein Erwachsener. Dieser Rechtsstatus wird auch nicht dadurch geändert, weil Kinder niedlicher sind als die meisten Erwachsenen. Dies bedeutet also, dass jeder Elternteil genauestens prüfen muss, ob das Einstellen eines „niedlichen“ oder „hübschen“ Kinderbildes im Internet tatsächlich notwendig ist und wem es nützt. Nützt das Foto nur dem Elternteil, wird das Kind zum „Vorzeigeobjekt“ und ist in seinem Persönlichkeitsrecht beeinträchtigt.

Eltern als Hüter des Persönlichkeitsrechts

Die Eltern haben nach § 1626 Bürgerliches Gesetzbuch (BGB) die Pflicht und das Recht für ihr Kind zu sorgen. Sie sind nach dem Bundesverfassungsgericht die Treuhänder und Garanten für das Persönlichkeitsrecht des Kindes. Sie treffen die Entscheidung, welche Bilder sie von ihrem Kind in das Netz stellen. Die Sorgeberechtigung bedeutet, dass die Eltern die Einwilligung für eine Verbreitung von Bildnissen ihres Kindes in der Öffentlichkeit in Vertretung für ihr Kind geben können. Da es nun aber nicht nur das Recht, sondern auch die Pflicht der Eltern ist, im Interesse des Kindes zu handeln, müssen Eltern eine Gefährdung des Kindeswohls vermeiden.

Kindeswille ist beachtlich.

Das Kind soll selbst entscheiden können, wenn es aufgrund seiner Entwicklung die Einsichts- und Beurteilungsfähigkeit hat, in welchem Umfang seine privaten Angelegenheiten, sein Bildnis oder seine Darstellung der Persönlichkeit öffentlich wahrgenommen werden kann. Hat das Kind noch nicht die notwendige Einsichtsfähigkeit, entscheiden die Eltern. Aber die Eltern sollten sich immer wieder in das Gedächtnis rufen: Auch das NEIN eines 1-jährigen Kindes ist beachtlich! Hierbei ist klar, dass das Kind nicht nur durch Sprache, sondern auch durch verständliche Handlungen, ausdrücken kann. Wenn das Kind kein Foto oder Video von sich möchte, dann ist das von den Eltern zu akzeptieren!

 

 

Das Spital im Mittelalter

Der Ausgleich von Unrecht im Frühmittelalter

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Frühmittelalterliche Gesellschaft

Im Frühmittelalter (um 500 n. Chr. bis um 1050 n. Chr.) lebten die Menschen in Europa in Personenverbänden. Als Bezeichnung für diese Personenverbände ist der Begriff der Sippe (gotisch: „sibja“; ahd. „sippis“; mhd. „sippe“) überliefert, den wir in der heutigen Alltagssprache  scherzhaft oder auch abwertend als Bezeichnung für die Gesamtheit der Mitglieder der Familie verwenden. Die persönliche Zugehörigkeit zur Sippe entstand durch Verwandtschaft bzw. das Aufwachsen des Kindes in einer bestimmten Sippe. Das Merkmal der Verwandtschaft bedeutete zugleich, dass man sich wohl gesonnen war und gemeinsam in Frieden zusammenlebte. Diejenigen Personenverbände, die sich durch ihre gemeinsame Kultur und Geschichte sowie auch Sprache verbunden fühlten, bildeten eine große Gemeinschaft. Diese Gemeinschaft wird in der Forschung als Volk oder Stamm bezeichnet. Im frühmittelalterlichen Europa lebten beispielsweise die Burgunder, Langobarden, Thüringer, Sachsen, Goten, Friesen, Bayern, Jüten und Angeln.

Was war damals Unrecht?

Die Feststellung, ob eine Handlung Unrecht war, oblag als Erstes der eigenen Wahrnehmung des betroffenen Menschen und seiner Sippe. Was in der frühmittelalterlichen Gemeinschaft unter Unrecht verstanden wurde, ist schwer zu fassen. Das „Hineindenken“ in das damalige Verständnis von Recht und Unrecht verführt zu falschen Schlüssen. Was im heutigen Rechtsverständnis evident als Unrecht gilt, ist ein Produkt einer Jahrhunderte währenden Entwicklung. Aufgrund unserer eigenen Sozialisation in der jetzigen Gesellschaft können wir nur schlecht nachvollziehen, welche Wertvorstellungen und Prinzipien die Menschen in der frühmittelalterlichen Gesellschaft hatten. Deshalb können wir nicht wie ein Mensch aus dem Frühmittelalter denken, sondern allenfalls anhand der vorliegenden Erkenntnisse erahnen, was der Mensch damals gefühlt und gedacht haben könnte. Wir wissen aber, dass die Menschen schon immer und auch im Frühmittelalter ein Bedürfnis nach dem Schutz für ihr Leben und das ihrer Familien gehabt haben müssen. Dieser Denkschluss entspricht den Erkenntnissen zum Selbsterhaltungstrieb. Der Begriff „Friede“ umschreibt bereits seit dem Althochdeutschen und in sprachlichen Wandelungen in nahezu allen Sprachen des heutigen Europas einen Zustand von Ruhe und Schutz für Menschen und ist ein sprachliches Zeugnis für eben das Bestreben des Menschen, sich in einer Lebensumgebung aufzuhalten, die sein eigenes Überleben sichert.

Demnach ist alles das Unrecht, was den Frieden stört oder zerstört. Wurde ein freier Mann eines bestimmten Familienverbandes von einem anderen freien Mann getötet oder verletzt so war diese Verletzung ein Bruch des Friedens. Zugleich wurde aber nicht nur der Frieden gebrochen, sondern auch die Ehre des Opfers und seines Personenverbandes beschädigt. Die Ehre ist das Ansehen und die Wertschätzung einer Person, die ihm von einer anderen Person entgegengebracht wird. Bei einem Totschlag oder einer Körperverletzung ist der Mangel an Wertschätzung des Täters für das Opfer offensichtlich, sodass ein harmonisches Zusammenleben in gegenseitiger Anerkennung nicht mehr möglich war. Diesen Zustand drückte Machiavelli später wie folgt aus: „Wer den Frieden stört, der mache sich auf den Krieg gefasst.“

Ausgleich des Unrechts durch Selbstjustiz

Durch das Fehlen einer geregelten und gefestigten Rechtsordnung galt kein einheitliches Verfahren. Wenn einem Menschen ein Unrecht durch einen anderen angetan wurde, so wollte dieser eine schnelle Reaktion. Dieser Wunsch nach schnellstmöglicher Genugtuung führte oft dazu, dass der Geschädigte oder seine Familie den Vorfall selbst richtete, indem Selbsthilfe durch Rache (Blutrache) geübt wurde. Der Lösungsweg für die Herstellung eines gerechten Zustandes wurde folglich in dem persönlichen Streit gesucht. Die Fehde als sich gegenseitiges „Bekriegen“ wurde zwischen den Familien geführt. Dieser Krieg zwischen den Familienverbänden konnte durch gegenseitige Akte der Rache erst dann zum Ende finden, wenn eine Sippe besiegt war oder die Vernunft durch das Aushandeln einer Sühne dem Krieg Einhalt gebot. Anders mag der Umgang mit geschehenem Unrechte innerhalb der Sippe gewesen sein, da die Blutsverwandtschaft als striktes Band einen gegenseitigen feindlichen Racheakt ausschloss. Hier trafen die Konsequenzen für sein unrechtes Handeln den Verursacher von Unrecht allein und die Strafe war, wie in vielen frühen Gesellschaftsformen, oftmals der Ausschluss aus der Sippe.

Die ersten Rechtsaufzeichnungen in den sog. Volksrechten der europäischen Völker des Frühmittelalters sind Nachweise für das Bemühen um ein geordnetes Gerichtsverfahren und eine Wiedergutmachung des Unrechts durch die Zahlung eines Sühnegeldes, auch in Form von geldwerten Gegenständen (Tiere). So sollte die Fehde eingedämmt und zurückgedrängt werden. Doch auch die Sühne bot keinen sicheren Ausweg aus der Fehde, da sie als Mittel „zweiter Klasse“ zur Wiederherstellung des Friedens angesehen wurde und der freie ehrenhafte Mann nicht für eine Buße auf die persönliche Rache verzichten wollte.

 

Cookie Consent mit Real Cookie Banner