Seite wählen
Die Fastnacht im 15. Jahrhundert in Nürnberg: Ein Spiegel gesellschaftlicher Missstände und früher #MeToo-Momente

Die Fastnacht im 15. Jahrhundert in Nürnberg: Ein Spiegel gesellschaftlicher Missstände und früher #MeToo-Momente

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Die Ursprüngen der Fastnacht und ihrer Bräuche sind in der Wissenschaft umstritten. Es gibt verschiedene Theorien zur Herleitung, doch eine deutliche Verbindung zu den kirchlichen Mysterienspielen und den römischen Saturnalien ist erkennbar. Jaques Heers bemerkt dazu: „Es mag verwunderlich oder gar paradox erscheinen, aber die Narrenfeste, Feiern der Unordnung, der auf den Kopf gestellten Hierarchien, haben sich ausnahmslos in kirchlichen Kreisen entfaltet.“ (Heers, Vom Mummenschantz und Machttheater, S.37.) Die Fastnacht ist also keineswegs ein rein weltliches Vergnügen, sondern wurzelt in religiösen Festen, in denen soziale Ordnungen temporär aufgehoben wurden.

Im späten Mittelalter spielte Nürnberg eine bedeutende Rolle bei der Entwicklung der städtischen Fastnacht. Die Fastnacht diente nicht nur als Zeit des ausgelassenen Feierns, sondern auch als Ventil für gesellschaftliche Kritik. Besonders die Fastnachtsspiele waren eine bühnenhafte Darstellung von Missständen und sozialen Ungerechtigkeiten. Dazu gehörten auch Themen wie sexuelle Belästigung von Frauen, die damals wie heute eine traurige Realität waren. Dies lässt sich in Werken von Hans Folz nachweisen, einem bekannten Meistersinger und Fastnachtsspielautor des 15. Jahrhunderts.

Frauen und Fastnacht: Schutzlos selbst in Männerkleidung

In einem Fastnachtsspiel von Hans Folz wird eine Gerichtsverhandlung inszeniert, in der die personifizierte Fastnacht angeklagt wird. Eine besondere Rolle spielt hierbei die Anwältin der Frauen, die vor Gericht das Wort führt. Dies ist eine bemerkenswerte Besonderheit, denn im mittelalterlichen Nürnberg waren Frauen als Anwälte nicht zugelassen. Redner vor Gericht waren ausnahmslos Männer. Der Grund, warum der Verfasser dennoch eine Frau als Anklägerin einsetzte, liegt vermutlich in einem Interessenkonflikt: Ein Mann hätte sich schwerlich glaubwürdig gegen das Verhalten seines eigenen Geschlechts aussprechen können, ohne sich selbst und seine Geschlechtsgenossen anzuklagen. Die Lösung bestand also darin, eine Frau das Wort führen zu lassen.

Die Anwältin klagt unter anderem an, dass Frauen sich nicht einmal durch das Tragen von Männerkleidung vor sexueller Belästigung schützen konnten. Sobald sie „entlarvt“ wurden, waren sie dem männlichen Zugriff schutzlos ausgeliefert:

„Leg wir dann mannes kleider an vnd mayn, dest sichrer gan, sobald sie erfarn einer oder zwen, so wils keiner allein lassen gan. Jgklicher spricht: wol auff, ge mit mir!“ (Nürnberger Fastnachtspiele des 15. Jahrhunderts von Hans Folz und seinem Umkreis. Edition und Kommentar. Herausgegeben von: Stefan Hannes Greil und Martin Przybilski. In Zusammenarbeit mit: Theresia Biehl , Christoph Gerhardt und Mark Ritz, S. 387-407, S. 398)

Dieses Zitat verdeutlicht, dass Frauen trotz Verkleidung nicht sicher vor Übergriffen waren. Die Fastnacht bot einen Raum, in dem Männer sich ermutigt fühlen konnten, Frauen sexuell zu belästigen. Dies lässt sich als eine frühe Form eines #MeToo-Moments interpretieren.

Die personifizierte Fastnacht als Angeklagte

Interessanterweise werden in dem Fastnachtsspiel nicht die Männer direkt angeklagt, sondern die personifizierte Fastnacht selbst. Dabei wird die Fastnacht weiblich dargestellt, was bereits in der deutschen Sprache mit dem weiblichen Artikel „die Fastnacht“ angedeutet wird. In ihrer Verteidigung argumentiert sie, dass sie selbst nichts für das Verhalten der Männer könne und dass die Fastnacht lediglich ein Fest der Freude und des ausgelassenen Feierns sei. Der Verfasser des Stücks lenkt so die Verantwortung von den einzelnen Tätern weg und macht die Fastnacht als institutionelles Ereignis zum Mittelpunkt der Anklage.

Der Richter, der die Verhandlung leitet, hört nicht nur die Frauen an, sondern auch Vertreter aller sozialen Stände: Adel, Bauern, Bürger und Handwerker klagen die Fastnacht an. Doch schließlich entscheidet er zugunsten der Fastnacht, da das Feiern als alter Brauch geschätzt wird und nicht abgeschafft werden soll. Dieses Urteil zeigt die Ambivalenz der Fastnacht: Einerseits ist sie eine Zeit der Kritik und der Aufhebung gesellschaftlicher Normen, andererseits genießt sie eine Art Schutzstatus als Tradition, sodass sie trotz berechtigter Einwände nicht infrage gestellt wird.

Tradition ./. Recht auf eine sichere Feier?

Die Fastnacht galt traditionell als eine Zeit, in der Normen und Hierarchien aufgehoben wurden. Doch in dieser Umkehrung der Ordnung lag auch die Gefahr für Frauen, noch wehrloser zu sein als ohnehin schon. Während die Verkleidung in gewisser Weise Schutz versprach, wurde sie nach ihrer Aufdeckung zur Einladung für Übergriffe.

Parallelen zur Gegenwart

Die Problematik sexueller Belästigung ist kein modernes Phänomen. Was wir heute unter #MeToo zusammenfassen, hatte bereits im Mittelalter einen Platz in der gesellschaftlichen Realität. Die Fastnachtsspiele und ihre Darstellungen von Frauen in einer schutzlosen Rolle zeigen, dass das Problem der sexuellen Übergriffigkeit kein neues ist.

Die Tatsache, dass bereits in den Fastnachtsspielen des 15. Jahrhunderts sexuelle Belästigung thematisiert wurde, zeigt, dass das Bewusstsein für diese Problematik keineswegs erst in der Moderne entstanden ist. Das Mittelalter mag vergangen sein, doch der Kampf gegen sexuelle Gewalt ist und bleibt aktuell. Die Geschichte zeigt, dass sexuelle Belästigung gegen Frauen ein Dauerthema seit Jahrhunderten ist. Der Kampf gegen sexuelle Belästigung ist nicht nur eine Aufgabe der Betroffenen, sondern eine gesellschaftliche Verantwortung.

Orientierungshilfe der DSK zur datenschutzkonformen Nutzung von KI

Orientierungshilfe der DSK zur datenschutzkonformen Nutzung von KI

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Die Nutzung von Künstlicher Intelligenz (KI) bringt zahlreiche Chancen, aber auch Herausforderungen mit sich – insbesondere im Hinblick auf den Datenschutz. Unternehmen, Behörden und andere Organisationen stehen vor der Frage, wie sie KI-Anwendungen datenschutzkonform einsetzen können. Die Datenschutzkonferenz (DSK), bestehend aus den unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder, hat daher am 6. Mai 2024 eine Orientierungshilfe zu KI und Datenschutz veröffentlicht.

Zielgruppe der Orientierungshilfe

Die Orientierungshilfe richtet sich vorrangig an Unternehmen und Behörden, die KI-Anwendungen in ihren Arbeitsprozessen nutzen oder einführen möchten. Sie bietet einen praxisnahen Leitfaden, um Datenschutzanforderungen einzuhalten und Risiken zu minimieren. Auch Personen, die KI-Systeme entwickeln, herstellen oder bereitstellen, finden hier wertvolle Hinweise, um datenschutzfreundliche Lösungen zu konzipieren. Die Orientierungshilfe ist kein abschließender Anforderungskatalog, sondern eine laufend aktualisierte Empfehlung, die an neue technologische und rechtliche Entwicklungen angepasst wird.

Inhaltlicher Überblick

Die Orientierungshilfe ist sehr umfangreich und behandelt verschiedene Aspekte des Datenschutzes bei der Nutzung von KI. Dabei konzentriert sie sich besonders auf Large Language Models (LLMs), die in den letzten Jahren verstärkt zum Einsatz kommen – sei es als Chatbots oder als Grundlage für weitere Anwendungen.

  1. Auswahl und Konzeption von KI-Anwendungen

Bevor eine KI-Anwendung genutzt wird, sollten Organisationen klar definieren, für welche Zwecke sie eingesetzt werden soll und ob personenbezogene Daten verarbeitet werden. Hierbei sind folgende Fragen entscheidend:

  • Ist der Einsatz der KI rechtlich zulässig?
  • Werden personenbezogene Daten benötigt, oder kann die Anwendung ohne sie betrieben werden?
  • Ist die Verarbeitung von sensiblen Daten, wie Gesundheits- oder biometrischen Daten, überhaupt erlaubt?

Ein besonderes Augenmerk liegt darauf, dass keine automatisierten Letztentscheidungen getroffen werden, da diese nach der Datenschutz-Grundverordnung (DSGVO) nur in engen Ausnahmefällen zulässig sind.

  1. Implementierung von KI in den Arbeitsalltag

Nach der Auswahl einer KI-Anwendung muss sichergestellt werden, dass sie sicher und rechtskonform integriert wird. Dazu gehören unter anderem:

  • Verantwortlichkeiten klären: Wer entscheidet über den Einsatz und die Datenverarbeitung?
  • Datenschutz-Folgenabschätzung durchführen: Falls ein hohes Risiko für Betroffene besteht, muss geprüft werden, welche Maßnahmen notwendig sind.

Nehmt die Leute mit! Es ist wichtig, die Beschäftigten zu sensibilisieren und in den Prozess einzubeziehen. Unternehmen sollten klare Regeln für den Umgang mit KI aufstellen, das Personal schulen und aktiv in die Entwicklung einbinden. Auch der Betriebsrat sollte von Beginn an involviert sein.

Außerdem betont die Orientierungshilfe, dass KI-Systeme am besten als geschlossene Systeme betrieben werden sollten, um Datenschutzrisiken zu minimieren. Offene Systeme, insbesondere solche, die Eingaben für weiteres Training verwenden, sind mit zusätzlichen Herausforderungen verbunden.

  1. Nutzung von KI-Anwendungen

Auch während des laufenden Betriebs gibt es zahlreiche Datenschutzaspekte zu beachten:

  • Transparenz: Nutzende müssen darüber informiert werden, welche Daten verarbeitet werden und wofür.
  • Richtigkeit der Ergebnisse überprüfen: KI-generierte Inhalte können fehlerhaft oder sogar diskriminierend sein. Daher sollte ihre Nutzung immer kritisch hinterfragt werden.
  • Betroffenenrechte umsetzen: Personen haben ein Recht auf Berichtigung, Löschung und Auskunft über ihre Daten. Unternehmen müssen technische Lösungen finden, um diese Rechte durchzusetzen.

Gerade im Umgang mit sensiblen Daten warnt die DSK davor, unkritisch auf KI-Modelle zu vertrauen, da diese Falschinformationen oder diskriminierende Vorurteile enthalten können.

Ein dynamischer Leitfaden für die Zukunft

Die Datenschutzkonferenz hebt hervor, dass die Orientierungshilfe fortlaufend weiterentwickelt wird, um den sich ändernden rechtlichen und technischen Rahmenbedingungen gerecht zu werden. Die rasanten Fortschritte im Bereich KI machen es notwendig, datenschutzrechtliche Anforderungen regelmäßig zu überprüfen und neue Risiken frühzeitig zu erkennen.

Kein Feststellungsinteresse des Sozialversicherungsträgers für eine Erbenfeststellungsklage

Kein Feststellungsinteresse des Sozialversicherungsträgers für eine Erbenfeststellungsklage

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Der Bundesgerichtshof hat entschieden (Beschluss vom 2. November 2022, Az. IV ZR 39/22), dass ein Sozialhilfeträger keinen direkten Einfluss auf erbrechtliche Entscheidungen nehmen kann, selbst wenn wirtschaftliche Interessen im Raum stehen. Dem Sozialhilfeträger fehlt für eine solche Feststellung das sogenannte rechtliche Interesse. Er kann nicht feststellen lassen, dass eine Sozialleistungsbezieherin Erbin ist und die Erbschaft nicht wirksam zugunsten ihrer Kinder ausschlagen kann.

 Der Fall

Die Erbin hatte Sozialleistungen nach dem SGB II erhalten. Sie schlug die Erbschaft aus, nachdem ihre Mutter verstorben war. Dadurch wurden ihre Kinder Erben. Der zuständige Sozialversicherungsträger, der über Jahre hinweg finanzielle Leistungen gewährt hatte, wollte daraufhin gerichtlich feststellen lassen, dass die Sozialleistungsempfängerin dennoch Erbin geworden ist. Ziel war es, Rückzahlungsansprüche gegen sie geltend zu machen.

Rechtliche Beurteilung durch den BGH

Der BGH hat entschieden, dass dem Sozialversicherungsträger kein rechtliches Feststellungsinteresse nach § 256 ZPO zusteht. Das Recht zur Ausschlagung einer Erbschaft ist ein höchstpersönliches Recht des Erben und kann nicht auf Dritte übergehen – auch nicht auf einen Sozialleistungsträger. Ein Sozialhilfeträger hat zwar möglicherweise ein wirtschaftliches Interesse an der Erbenstellung, doch dieses allein genügt nicht, um ein Feststellungsinteresse im juristischen Sinne zu begründen. Die Klage wurde daher als unzulässig abgewiesen. 

Was ist ein höchstpersönliches Recht ?

Dies ist ein Recht, das ausschließlich von einer bestimmten Person selbst ausgeübt werden kann. Es ist also nicht übertragbar, vererbbar oder durch eine andere Person wahrnehmbar. Solche Rechte betreffen sehr persönliche Entscheidungen und können nur von der betroffenen Person selbst ausgeübt werden. Ein Beispiel dafür ist das Recht zur Eheschließung nach § 1311 BGB. Nur die beiden Partner können eine Ehe eingehen, niemand kann dies stellvertretend für sie tun. Auch das Recht zur Erbausschlagung nach § 1942 BGB zählt dazu, wie dies der BGH bestätigt hat. Ein weiteres höchstpersönliches Recht ist die Testierfreiheit nach § 1937 BGB. Jeder kann in einem Testament frei bestimmen, wer sein Erbe wird, und niemand kann ihm diese Entscheidung abnehmen oder für ihn ein Testament verfassen.

Folgen für Erben und Sozialversicherungsträger

Der Beschluss des BGH stellt klar, dass Sozialleistungsbezieher frei entscheiden können, ob sie eine Erbschaft annehmen oder ausschlagen. Sie müssen nicht befürchten, dass ein Sozialhilfeträger dies nachträglich angreift. Der BGH bestätigt, dass die Erbausschlagung ein unantastbares, persönliches Recht des Erben bleibt.

Der Einsatz von Keyloggern am Arbeitsplatz

Der Einsatz von Keyloggern am Arbeitsplatz

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Der Einsatz von Keyloggern am Arbeitsplatz

 

Definition und Funktionsweise eines Keyloggers

Ein Keylogger ist eine Software oder ein Hardwaregerät, das sämtliche Tastatureingaben eines Computers aufzeichnet. Dies kann zur umfassenden Überwachung der Nutzung eines Computers durch den Arbeitgeber eingesetzt werden. Neben der Kontrolle, welche Tätigkeiten ein Arbeitnehmer während seiner Arbeitszeit ausführt, kann ein Keylogger auch dazu dienen, die Geschwindigkeit und Effizienz der Arbeitsweise zu analysieren. Durch die Aufzeichnung von Tastenanschlägen und die Erfassung von Zeitintervallen zwischen den Eingaben lassen sich detaillierte Rückschlüsse auf die Arbeitsweise eines Mitarbeiters ziehen.

Sachverhalt des Urteils (BAG, Urteil vom 27. Juli 2017 – 2 AZR 681/16)

Im vorliegenden Fall ging es um einen Webentwickler, der seit 2011 bei einem Unternehmen tätig war. Der Arbeitgeber hatte auf dem Dienst-PC des Mitarbeiters einen Keylogger installiert, ohne diesen zuvor konkret über diese Maßnahme zu informieren. Die durch den Keylogger erfassten Daten zeigten, dass der Arbeitnehmer während der Arbeitszeit private Tätigkeiten ausführte, darunter die Entwicklung eines Computerspiels sowie das Bearbeiten geschäftlicher E-Mails für das Unternehmen seines Vaters. Dies führte zur außerordentlichen fristlosen Kündigung des Arbeitnehmers. Der Arbeitnehmer klagte gegen die Kündigung und argumentierte, dass die Überwachungsmaßnahme gegen sein Grundrecht auf informationelle Selbstbestimmung verstoße und damit unzulässig sei.

Entscheidung des Bundesarbeitsgerichts

Das Bundesarbeitsgericht (BAG) entschied mit Urteil vom 27. Juli 2017 (Az. 2 AZR 681/16), dass die Kündigung des Arbeitnehmers unwirksam sei, da die durch den Keylogger gewonnenen Erkenntnisse einem Verwertungsverbot unterliegen. Nach der Entscheidung verstößt die heimliche Erfassung und Speicherung von Tastatureingaben gegen das allgemeine Persönlichkeitsrecht des Arbeitnehmers, das sich aus Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 Grundgesetz (GG) ergibt.

Die zentralen rechtlichen Erwägungen des Gerichts waren, dass die Überwachung durch einen Keylogger einen tiefgreifenden Eingriff in das allgemeine Persönlichkeitsrecht des Arbeitnehmers darstellt. Ein solcher Eingriff ist nur dann zulässig, wenn ein durch konkrete Tatsachen begründeter Verdacht auf eine Straftat oder eine schwerwiegende Pflichtverletzung besteht. Eine allgemeine Kontrolle der Arbeitsweise oder der Arbeitsgeschwindigkeit ohne einen spezifischen Verdacht wird als unverhältnismäßig angesehen und ist nicht durch § 32 Abs. 1 des Bundesdatenschutzgesetzes (BDSG a.F.) gerechtfertigt. Da die durch den Keylogger gewonnenen Erkenntnisse unter Verstoß gegen diese Grundsätze erlangt wurden, unterliegen sie einem Verwertungsverbot und dürfen im Kündigungsschutzprozess nicht berücksichtigt werden.

Interessenabwägung zwischen Arbeitgeber und Arbeitnehmer

Die Entscheidung des BAG zeigt die grundlegende Abwägung zwischen dem berechtigten Interesse des Arbeitgebers an der Überwachung der Arbeitsleistung und den Rechten der Arbeitnehmer auf Datenschutz und Privatsphäre.

Argumente zugunsten des Arbeitgebers

  • Arbeitgeber haben ein legitimes Interesse daran, die Arbeitszeit ihrer Angestellten effizient zu nutzen und Verstöße gegen betriebliche Vorgaben zu ahnden.
  • Die Kontrolle von Arbeitsgeschwindigkeit und -qualität ist insbesondere in digitalisierten Arbeitsbereichen relevant, in denen Produktivität häufig anhand von Tastatureingaben, Bearbeitungszeiten oder Nutzeraktivitäten gemessen wird.
  • In sicherheitskritischen Branchen oder bei besonders sensiblen Daten kann eine lückenlose Kontrolle helfen, Regelverstöße oder Datenmissbrauch frühzeitig zu erkennen.
  • Eine unkontrollierte private Nutzung betrieblicher IT-Systeme kann nicht nur die Arbeitsleistung, sondern auch die Sicherheit von Unternehmensnetzwerken gefährden.
  • Das Urteil könnte dazu führen, dass Arbeitgeber weniger Möglichkeiten haben, sich gegen unerlaubte private Nutzung oder ineffiziente Arbeitsweisen zur Wehr zu setzen.

Argumente zugunsten des Arbeitnehmers

  • Auf der anderen Seite schützt die Entscheidung des Gerichts das Grundrecht der Arbeitnehmer auf informationelle Selbstbestimmung und Privatheit im Arbeitsverhältnis.
  • Eine ständige Überwachung durch Keylogger könnte Arbeitnehmer einem unzumutbaren Anpassungsdruck aussetzen, da sie jederzeit mit einer vollständigen Kontrolle ihrer Arbeitsweise rechnen müssen.
  • Die Erfassung von Tastatureingaben gibt nicht nur Aufschluss über die Produktivität, sondern kann auch private oder hochsensible Informationen wie Passwörter oder persönliche E-Mails aufzeichnen.
  • Arbeitnehmer sollten nicht pauschal unter Verdacht gestellt werden; eine Überwachung darf nur erfolgen, wenn konkrete Verdachtsmomente vorliegen.

Schlusspunkt

Die Entscheidung des BAG setzt klare Grenzen für den Einsatz von Keyloggern im Arbeitsverhältnis. Arbeitgeber müssen vor der Implementierung solcher Überwachungstechnologien sicherstellen, dass eine rechtliche Grundlage für deren Einsatz besteht und die Maßnahme verhältnismäßig ist. Das Urteil macht deutlich, dass eine verdachtsunabhängige, vollständige Überwachung der Arbeitsweise von Beschäftigten nicht zulässig ist. Gleichzeitig bleibt es Arbeitgebern möglich, in begründeten Fällen gezielte Kontrollmaßnahmen zu ergreifen.

Ruhe bewahren bei Anfragen von Ermittlungsbehörden

Ruhe bewahren bei Anfragen von Ermittlungsbehörden

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Wenn eine Ermittlungsbehörde, wie die Polizei oder Staatsanwaltschaft, eine Anfrage zur Herausgabe personenbezogener Daten stellt, ist es wichtig, Ruhe zu bewahren und nicht übereilt zu handeln. Eine sofortige Herausgabe von Daten ist nur dann erforderlich, wenn Gefahr in Verzug besteht. Das bedeutet, dass ein sofortiges Handeln unabdingbar ist, um eine drohende erhebliche Gefahr für Leib, Leben oder bedeutende Rechtsgüter abzuwenden. In allen anderen Fällen sollte eine sorgfältige Prüfung der rechtlichen Voraussetzungen erfolgen.

Wann dürfen Daten weitergegeben werden?

Personenbezogene Daten unterliegen strengen Schutzbestimmungen nach der DSGVO und dem BDSG. Eine Weitergabe ist grundsätzlich nur erlaubt, wenn eine gesetzliche Grundlage besteht. Besonders relevant ist hier § 24 Abs. 1 Nr. 1 BDSG, wonach eine Datenweitergabe zulässig ist, wenn sie „zur Verhütung oder Verfolgung von Straftaten erforderlich ist“. Dies bedeutet, dass die Herausgabe zwingend notwendig sein muss und keine milderen Alternativen bestehen dürfen.

Besondere Pflichten von Sozialpädagogen

Sozialpädagogen und ihre Berufshelfer unterliegen nach § 203 StGB der Verschwiegenheitspflicht. Eine unbefugte Weitergabe von vertraulichen Informationen ist strafbar. Deshalb dürfen sie Auskünfte grundsätzlich nur gegenüber der Staatsanwaltschaft oder dem Gericht machen, nicht jedoch gegenüber der Polizei, es sei denn, eine ausdrückliche gesetzliche Grundlage liegt vor.

Wie sollte man vorgehen?

Falls eine Anfrage einer Ermittlungsbehörde eingeht, sollten folgende Schritte beachtet werden:

  • Schriftliche Anfrage anfordern: Lassen Sie sich die Anfrage immer schriftlich mit Angabe der Rechtsgrundlage geben.
  • Rechtliche Prüfung vornehmen: Prüfen Sie, ob eine Herausgabe tatsächlich erforderlich und rechtlich zulässig ist.
  • Intern dokumentieren: Jede Anfrage und Entscheidung sollte sorgfältig dokumentiert werden.
  • Daten sicher übermitteln: Falls eine Weitergabe erfolgt, sollten die Daten nur verschlüsselt und passwortgeschützt übermittelt werden.
  • Betroffenen informieren: Nach Art. 14 DSGVO besteht eine Informationspflicht gegenüber dem Betroffenen, es sei denn, die Staatsanwaltschaft ordnet eine Geheimhaltung an.

Fazit

Bei Anfragen von Ermittlungsbehörden gilt: Besonnen handeln, Rechtsgrundlagen prüfen und dokumentieren. Nur wenn Gefahr in Verzug besteht, ist ein sofortiges Handeln notwendig. In allen anderen Fällen sollte die Herausgabe personenbezogener Daten erst nach sorgfältiger Prüfung erfolgen, um rechtliche Konsequenzen zu vermeiden.

 

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

BAG: Kein Anspruch auf betriebliche E-Mail-Adressen für Gewerkschaften

Das Bundesarbeitsgericht (BAG) entschied am 28. Januar 2025 (Az. 1 AZR 33/24), dass ein Arbeitgeber nicht verpflichtet ist, der tarifzuständigen Gewerkschaft die dienstlichen E-Mail-Adressen seiner Beschäftigten zum Zweck der Mitgliederwerbung mitzuteilen.

Die klagende Gewerkschaft wollte im Betrieb der Beklagten digitale Werbemaßnahmen durchführen und forderte hierfür unter anderem die Übermittlung der E-Mail-Adressen aller Arbeitnehmer, Zugang zum konzernweiten Netzwerk sowie eine Verlinkung ihrer Webseite im Intranet der Beklagten.

Wie bereits die Vorinstanz, das Landesarbeitsgericht Nürnberg (Urteil vom 26. September 2023 – 7 Sa 344/22), wies auch das BAG die Klage ab. Es stellte fest, dass die Koalitionsbetätigungsfreiheit nach Art. 9 Abs. 3 GG nicht dazu verpflichtet, der Gewerkschaft einen direkten Zugang zu den internen digitalen Kommunikationsmitteln des Unternehmens zu gewähren. Eine solche Forderung kollidiere mit den Grundrechten des Arbeitgebers und der Arbeitnehmer, insbesondere mit deren Datenschutzrechten.

Die Entscheidung betont, dass Gewerkschaften die Möglichkeit haben, Arbeitnehmer vor Ort nach ihrer betrieblichen E-Mail-Adresse zu fragen, um so ihre Werbemaßnahmen durchzuführen.

Cookie Consent mit Real Cookie Banner