Die Künstliche Intelligenz kann Menschen diskriminieren.

Die Künstliche Intelligenz kann Menschen diskriminieren.

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass bei der Verwendung von KI Diskriminierungen erfolgen können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen hat und einer Tierart zugeordnete.

Wie kann das sein?

Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Quelle für eine Diskriminierung in sich. Beispielsweise wird bei einem Lebenslauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied gegenüber kinderlosen Personen kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen.

Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung?

Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen vermeiden. Dies deckt sich aber nun überhaupt nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte.

Lösung der „Subobjektivität“ überhaupt möglich?

Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird. Die KI könnte, ohne weitere Angaben wie sie rechnen soll, eine Vielzahl von Personen anhand ihrer subjektive Merkmale objektiv vergleichen und so eine  „optimale“ Person ermitteln, die dem Mainstream aus allen am Vergleich teilnehmenden Personen entspricht. Merkmale von Minderheiten würden nicht oder negativ berücksichtigt werden. Eine Diskriminierung würde vorliegen.

Was ist ein „digitales Produkt“?

Was ist ein „digitales Produkt“?

AdobeStock_380612958 Von Creative_Bird

Bei einem Produkt handelt es sich entweder um ein Erzeugnis aus verschiedenen Stoffen oder um einen bestimmten Dienst, der etwas erzeugt. Beispielsweise ist Honig ein von Bienen erzeugtes Produkt. Der Holztisch auf dem der Gastwirt sein Honigbrot dem Gast serviert ist ein von einem Tischler hergestelltes Produkt. Die Bedienung des Gastes ist ein durch den Gastwirt erzeugtes Produkt einer Dienstleistung.

Im Alltag sind wir von Produkten dauernd umgeben. Wir stellen täglich auch selbst Produkte her. Aber was wird unter einem „digitalen Produkt“ verstanden? Hiermit befasste sich vor Kurzem auch der deutsche Gesetzgeber als er die DID-RL (Richtlinie über bestimmte vertragsrechtliche Aspekte der Bereitstellung digitaler Inhalte und digitaler Dienstleistungen) der Europäischen Union in nationales Recht umsetzte. Seit 01.01.2022 sind die Änderungen des BGB in Kraft und seitdem steht der Begriff „digitales Produkt“ als Rechtsbegriff im Gesetz. Die Wendung „digitales Produkt“ ist also keine aus der Alltagssprache heraus entstandene und gewachsene Bezeichnung, sondern ein Kunstbegriff der Rechtswissenschaft.

Der Gesetzgeber, der diesen Begriff letztlich in der deutschen Sprache als Terminologie eingeführt hat, will unter „digitalem Produkt“ einen zusammenfassenden Begriff für „digitale Inhalte“ und „digitale Dienstleistungen“ verstanden wissen, ohne dass eine inhaltliche Änderung oder Erweiterung der Begriffe erfolgt (BT-Druck 19/27653 vom 17.03.2021, zu § 327 BGB-E S. 37).  Als Begründung führt der Gesetzgeber an, dass er den Begriff eingeführt hat, damit sich der Text besser lesen lässt.

Natürlich ist jetzt noch nicht klar, was unter „digitalen Inhalten“ und „digitalen Dienstleistungen“ verstanden werden soll. Der Verbraucher kann sich jedenfalls hierunter nichts vorstellen.  Eine Antwort hierauf, was das digitale Produkt eigentlich ist, gibt die DID-RL in ihrem Erwägungsgrund 19, (L 136/3): „ […] sollte sich diese Richtlinie unter anderem auf Computerprogramme, Anwendungen, Videodateien, Audiodateien, Musikdateien, digitale Spiele, elektronische Bücher und andere elektronische Publikationen und auch digitale Dienstleistungen erstrecken, die die Erstellung, Verarbeitung oder Speicherung von Daten in digitaler Form sowie den Zugriff auf sie ermöglichen, einschließlich Software-as-a-Service, wie die gemeinsame Nutzung von Video- oder Audioinhalten und andere Formen des Datei-Hosting, Textverarbeitung oder Spiele, die in einer Cloud-Computing-Umgebung und in sozialen Medien angeboten werden. […]“

Gemeint sein soll also alles, was mit Computertechnologie und Internet hergestellt und genutzt werden kann. Die Produkte können nicht aus den Geräten herausgenommen werden, sie sind keine körperlichen Gegenstände, die von dem Verbraucher angefasst, weggetragen oder gegessen werden können. Digitale Produkte sind immaterielle Gegenstände. Sie erhalten mit Hilfe von technischen Geräten wie beispielsweise Computer, Tablet, Smartphone oder auch smarten Fernsehgeräten einen „Körper“.  Nehmen wir die Kuhmilch als Beispiel. Diese ist ein durch ein Tier selbst erzeugtes Produkt. Übertragen gedacht wären Mensch, Computer und Internet zusammen die Kuh und die digitalen Produkte die Milch. Jetzt wäre nur noch zu klären, wie die digitalen Milchprodukte, also weitere Produkte aus digitalen Produkten, zu bezeichnen wären … vielleicht Diprodukte?

Datenschutzrechtliche Anforderungen an die Bildungsdokumentation im Kindergarten

Datenschutzrechtliche Anforderungen an die Bildungsdokumentation im Kindergarten

Der Kindergarten ist ein Ort der frühkindlichen Bildung. Er soll eine auf jedes Kind abgestimmte Begleitung und Unterstützung gewährleisten. Gerade in der frühkindlichen Entwicklung durchlebt jedes Kind individuell für sich wahre Quantensprünge. Hier ist es wichtig, dass die Bedürfnisse und Unterstützungsmöglichkeiten für jedes Kind erkannt werden. Die Bildungsdokumentation durch die pädagogischen Fachkräfte ist ein Hilfsmittel hierfür.

Im aktuellen Thüringer Bildungsplan für Kinder bis zum 18. Lebensjahr mit Stand 2019 wird dieses Hilfsmittel als „Erfassen und Dokumentation von Bildungsprozessen“ umschrieben. Hierunter versteht der Bildungsplan nicht nur die professionelle Dokumentation der Erwachsenen, sondern auch Berichte von Kindern und Jugendlichen als Selbstreflexionen. 

So oder so werden durch das pädagogische Personal des Kindergartens im Rahmen der Bildungsdokumentation persönliche Daten des Kindes erhoben, gespeichert und verarbeitet. Das Datenschutzrecht ist zu beachten. Hierbei macht es keinen Unterschied, ob die Dokumentation analog oder digital erfolgt.

Eine Rechtsgrundlage für die Erhebung, Speicherung und Verarbeitung der persönlichen Daten des Kindes zur Bildungsdokumentation muss somit vorliegen. Der frühere und der aktuelle Thüringer Bildungsplan sind keine Rechtsgrundlage hierfür, wie der Thüringer Landesdatenschutzbeauftragte bereits ausgeführt hat: 

 „Vielmehr ist es so, dass bei Anwendung des Bildungsplanes zur Erreichung seiner pädagogischen Ziele jeweils der Datenschutz separat zu betrachten ist und dementsprechend separat die Frage beantwortet werden muss, ob die Verarbeitung datenschutzkonform ist. Dies betrifft insbesondere die Prüfung, ob die Voraussetzungen der Art.6 und Art. 9 DSGVO gegeben sind. Zu beachten ist auch, dass in der Regel bei individuellen Fotos oder Videos eine Einwilligung nach Art.6 Abs.1 Satz 1 lit.a) iVm Art.7 Abs.7 Abs.1 DSGVO erforderlich ist.“

Essenziell ist also, dass immer eine aktuelle und ausreichende Einwilligung der Sorgeberechtigten vorliegt. Diese sollte zum Zweck der Beweissicherung schriftlich erfolgen und muss, im Falle der gemeinsamen Sorge, von beiden Eltern unterschrieben sein. Notwendig ist, dass die Eltern umfassend darüber aufgeklärt werden in was und in welchem Umfang sie zu welchem Zweck einwilligen. Die Formulierung sollte daher lieber in die Tiefe gehen. Inhaltsleere Beschreibungen können im schlimmsten Fall zu einer unwirksamen bzw. für einen bestimmten Fall nicht erteilten Einwilligung führen.

Mit der Einwilligung allein ist es aber nicht getan. Die Maximen des Datenschutzes müssen beachtet werden. Dies bedeutet, dass sich bei jeder Dokumentation der Ersteller zu hinterfragen hat: „Ist dies jetzt unbedingt erforderlich?“. Nur durch eine ständige kritische Selbstüberprüfung kann der Grundsatz der Datensparsamkeit beachtet werden. Dies ist wichtig, denn je mehr Daten erhoben werden, umso mehr wird das Persönlichkeitsrecht des Kindes berührt und ggf. betroffen.

Letztlich führt auch eine größere „Datenmenge“ zu einem höheren Verwaltungs- und Schutzaufwand, denn der Träger des Kindergartens muss als „Verantwortlicher“ sicherstellen, dass unberechtigte Dritte keinen Zugriff auf die Daten haben können und die Daten so gespeichert sind, dass sie gefunden werden. Das Abspeichern der Daten bei unsicheren Cloud-Diensten oder auf privater Hardware des Personals ist ein absolutes No-Go. Es muss zudem sichergestellt sein, dass alle diejenigen, die sich aufgrund ihrer Anwesenheit im Gebäude einen Zugang zu den Daten verschaffen könnten, eine Verschwiegenheitsvereinbarung unterzeichnet haben. Dies gilt für die angestellten Personen der Reinigungsfirma ebenso wie  für hospitierende Eltern oder Eltern in der Eingewöhnungszeit. Um von vornherein einen Rückschluss durch unberechtigte Dritte auf ein bestimmtes Kind anhand einer Aufzeichnung zu verhindern, ist eine frühzeitige Anonymisierung der Daten ein effektives und sicheres Werkzeug zur Gewährleistung des Datenschutzes. 

Zu beachten ist, dass die Daten auf keinen Fall an Dritte, wie beispielsweise eine Schule, ohne ausdrückliche Einwilligung der Eltern weitergegeben werden dürfen. Die Einwilligung muss vor der Weitergabe vorliegen. Eine nachträgliche Genehmigung heilt den Verstoß gegen den Datenschutz nicht.

Es zeigt sich anhand der Ausführungen, dass jeder Kindergarten auch ein schlüssiges und praktikables Datenschutzkonzept entwickeln muss. Dieses Konzept kann die Anforderungen an die Bildungsdokumentation und den Datenschutz in Einklang bringen. Dies klingt schwieriger, als es ist. Von großer Bedeutung ist es, dass das Thema angegangen und durchdacht wird ohne sich davor zu ängstigen.  

 

Datenschutz und Betriebsrat

Datenschutz und Betriebsrat

Bisher war nicht klar, ob im Rahmen der Betriebsratsarbeit der Arbeitgeber oder der Betriebsrat „Verantwortlicher“ im Sinne der Europäischen Datenschutzgrundverordnung (DSVGO) und des Bundesdatenschutzgesetzes (BDSG) ist. Der Gesetzgeber hat durch die Einführung von § 79a S.2 BetrVG diese Frage entschieden. Danach ist der Arbeitgeber der „Verantwortliche“, da der Betriebsrat institutionell als unselbstständiger Teil im Unternehmen tätig ist. Der Betriebsrat muss aber die datenschutzrechtlichen Vorschriften einhalten. Welche Rechtsfolgen bei einem Verstoß des Datenschutzes dem Betriebsrat treffen können, lässt die Norm offen. Klar geregelt ist hingegen, dass sich Arbeitgeber und Betriebsrat gegenseitig unterstützen sollen, um den Datenschutz auch in diesem Bereich des Unternehmens sicherzustellen.

Nicht geregelt ist, wie die Unterstützung zu leisten ist und wie die gegenseitige Unterstützungspflicht durchgesetzt werden kann, wenn ihr nicht entsprochen wird. Ob der Datenschutzbeauftragte des Unternehmens hier die Schnittstelle und Kontrollinstanz sein kann, wird sich zeigen. Der Gesetzgeber sieht in dem Datenschutzbeauftragten des Unternehmens eine neutrale Instanz, die gegenüber dem Arbeitgeber zur Verschwiegenheit über Informationen verpflichtet ist, die Rückschlüsse auf den Meinungsbildungsprozess des Betriebsrates zulassen.

Die Änderung hat auch zur Folge, dass der Arbeitgeber in seinem als „Verantwortlicher“ zu führenden Verarbeitungsverzeichnis gem. Art. 30 DSGVO mit aufnehmen muss welche Daten der Betriebsrat wie verarbeitet, speichert und möglicherweise an Dritte weiterleitet.

Der Datenschutz allein ist ein weites Feld. Verknüpft mit der Arbeit des Betriebsratet bietet sich, wie kann es hier an dieser Stelle auch anders stehen, ein Seminar an. In einer solchen Schulung ließe sich dann auch der wichtige Bereich des Beschäftigtendatenschutzes hervorragend eingliedern.

 

Änderung des Unfallversicherungsgesetzes wegen Homeoffice

Änderung des Unfallversicherungsgesetzes wegen Homeoffice

Es gab eine nicht unerhebliche Lücke im Versicherungsschutz für die Beschäftigten im Homeoffice, denn wenn sie zu Hause einen Unfall erlitten, obwohl sie gerade ihrer Arbeitstätigkeit nachgingen, war ein gesetzlicher Unfallversicherungsschutz nicht immer gegeben. Beispielsweise entfiel der Versicherungsschutz, wenn der Arbeitnehmer sich auf dem Weg zur Toilette oder in die Küche verletzte.  Nun wurde § 8 SGB VII geändert. Jetzt besteht der gesetzliche Versicherungsschutz im Home-Office im gleichen Umfang wie bei der Ausübung der Tätigkeit auf der Unternehmensstätte. Mit versichert sind auch der unmittelbar mit der Tätigkeit zusammenhängende Weg nach und von dem Ort an dem Home-Office ausgeübt wird. Ebenso sind der Weg, der zurückgelegt wird, um die eigenen Kinder abzuholen und das mit einer versicherten Tätigkeit zusammenhängende Verwahren, Befördern, Instandhalten und Erneuern eines Arbeitsgeräts oder einer Schutzausrüstung sowie deren Erstbeschaffung, wenn diese auf Veranlassung der Unternehmer erfolgt, versichert. Bemerkenswert ist, dass der Gesetzgeber auch an denjenigen Beschäftigten gedacht hat, der nicht in seinem Haushalt, sondern lieber auf der Parkbank, im Café oder am Strand seine Arbeit verrichtet, denn es heißt in § 8 Abs.1 SGB VII: “Wird die versicherte Tätigkeit im Haushalt der versicherten oder an einem anderen Ort ausgeübt, besteht Versicherungsschutz in gleichem Umfang […]“

Wie auch bei anderen Arbeitswegen wird sich die Frage der Abgrenzung des unmittelbaren Weges stellen, denn nur wenn dieser gegeben ist, besteht auch Versicherungsschutz. Urteile darüber, wann noch Home-Office ausgeübt wird und wann in der eigenen Wohnung Freizeit begonnen wurde, werden nicht lange auf sich warten lassen.

Cookie Consent mit Real Cookie Banner