Seite wählen
BGH-Urteil zur Einschränkung der Abrufbarkeit personenbezogener Daten im Vereinsregister

BGH-Urteil zur Einschränkung der Abrufbarkeit personenbezogener Daten im Vereinsregister

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Am 4. Juni 2024 entschied der Bundesgerichtshof (BGH) über die Frage, ob ein ehemaliges Vereinsvorstandsmitglied einen Anspruch auf Löschung oder zumindest Einschränkung der Abrufbarkeit seiner personenbezogenen Daten aus dem Vereinsregister hat (BGH, Beschluss vom 4.6.2024 – II ZB 10/23, NJW 2025, 351).

Hintergrund des Verfahrens

Der Antragsteller war bis 2004 Vorstandsvorsitzender eines eingetragenen Vereins. Nach seinem Ausscheiden blieben seine personenbezogenen Daten, darunter Vorname, Nachname, Geburtsdatum und Wohnort, weiterhin öffentlich im Vereinsregister abrufbar. Er beantragte beim Registergericht die Löschung bzw. die Einschränkung der Abrufbarkeit dieser Daten mit Verweis auf Art. 17 Abs. 1 Datenschutz-Grundverordnung (DS-GVO). Das Amtsgericht Bonn (Beschluss vom 27.3.2023, 20 VR 4257, BeckRS 2023, 52322) und das Oberlandesgericht Köln (NZG 2024, 80) wiesen den Antrag zurück, woraufhin der Antragsteller Rechtsbeschwerde beim BGH einlegte.

Entscheidung des BGH

Der BGH entschied, dass der Antragsteller keinen Anspruch auf eine vollständige Löschung seiner Daten habe, wohl aber auf eine Einschränkung der Abrufbarkeit. Die Speicherung personenbezogener Daten im Vereinsregister sei grundsätzlich zulässig, da sie den öffentlichen Informationsinteressen diene. Nach § 79 Abs. 1 BGB iVm § 33 Vereinsregisterverordnung (VRV) seien diese Daten für jedermann abrufbar. Allerdings sei die Bereitstellung zum uneingeschränkten Abruf im Internet nicht uneingeschränkt mit der DS-GVO vereinbar. Art. 17 Abs. 1 DS-GVO könne in bestimmten Fällen eine Löschung oder Einschränkung der Verarbeitung personenbezogener Daten erfordern. Ein Anspruch auf Löschung bestehe jedoch nur dann, wenn keine rechtlichen Gründe mehr für die Speicherung vorliegen. § 79 Abs. 1 und 2 BGB müssten im Lichte der DS-GVO restriktiv ausgelegt werden. Der BGH entschied daher, dass die Abrufbarkeit der Daten des Antragstellers auf Fälle eines dargelegten berechtigten Interesses beschränkt werden müsse. Diese Entscheidung ist insbesondere deshalb wichtig, weil die Regelungen zur Transparenz und Rechtssicherheit aus einer analogen Zeit stammen. Früher konnte ein Registerauszug nicht auf Knopfdruck erhalten werden, sondern musste kostenpflichtig beantragt werden. Heute hingegen sind massenhafte Abrufe innerhalb kürzester Zeit möglich, ohne dass die abrufende Person ein berechtigtes Interesse nachweisen muss. Dies öffnet Tür und Tor für Missbrauch, da die personenbezogenen Daten weltweit uneingeschränkt zugänglich sind.

Bedeutung der Entscheidung

Diese Entscheidung ist von erheblicher Bedeutung für den Datenschutz in Deutschland.

Zukünftig wird es wohl möglich sein, dass ehemalige Vorstandsmitglieder von Vereinen eine Einschränkung der Veröffentlichung ihrer Daten beantragen können. Dabei wird es aber nach der Entscheidung des BGH immer auf eine einzelfallbezogene Abwägung ankommen, insbesondere auf die Dauer seit dem Ausscheiden aus dem Amt. Hier wäre letztlich eine klare gesetzliche Regelung notwendig. Die Praxis, dass diese Daten heute ohne Weiteres und weltweit einsehbar sind, ist problematisch und öffnet Missbrauchsmöglichkeiten, die es in analogen Zeiten nicht gab erfordert dringend ein Umdenken.

Die Entscheidung war überfällig und wäre eigentlich unnötig gewesen, wenn der Gesetzgeber seinem Schutzauftrag nachgekommen wäre. Dies ist besonders wichtig im Hinblick auf das Geburtsdatum, denn dieses ist eine sehr sensible persönliche Information über eine Person. Diese sollte eigentlich niemals ohne Einschränkungen im Internet zugänglich sein!

 

Datenschutzverletzungen richtig melden – Neue EDSA-Leitlinien einfach erklärt

Datenschutzverletzungen richtig melden – Neue EDSA-Leitlinien einfach erklärt

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Datenschutz ist ein wichtiges Thema, das Unternehmen und Organisationen unbedingt ernst nehmen sollten. Die neuen Leitlinien 9/2022 des Europäischen Datenschutzausschusses (EDSA) geben klare Vorgaben zur Meldung von Datenschutzverletzungen gemäß der DSGVO. Diese Leitlinien wurden am 28. März 2023 aktualisiert und präzisieren insbesondere die Meldepflichten für Verantwortliche außerhalb der EU. Doch was bedeutet das konkret für Unternehmen und betroffene Personen?

Was ist eine Datenschutzverletzung?

Eine Datenschutzverletzung liegt vor, wenn personenbezogene Daten verloren, offengelegt oder manipuliert werden. Die DSGVO unterscheidet zwischen drei Arten von Verstößen:

  • Verletzung der Vertraulichkeit – Unbefugte erhalten Zugang zu Daten.
  • Verletzung der Integrität – Daten werden verändert oder manipuliert.
  • Verletzung der Verfügbarkeit – Daten gehen verloren oder sind nicht mehr zugänglich.

Beispiele für solche Vorfälle sind Hackerangriffe, gestohlene Laptops oder versehentlich veröffentlichte Daten.

Meldung an die Aufsichtsbehörde: Wann und wie?

Art. 33 DSGVO schreibt vor, dass Verantwortliche eine Datenschutzverletzung innerhalb von 72 Stunden nach Bekanntwerden der Aufsichtsbehörde melden müssen. Die Meldung kann schrittweise erfolgen, falls nicht sofort alle Informationen vorliegen. Folgende Informationen müssen übermittelt werden:

  • Art der Datenschutzverletzung
  • Anzahl der betroffenen Personen und Datensätze
  • Mögliche Folgen der Verletzung
  • Bereits ergriffene Maßnahmen zur Schadensbegrenzung

Wann ist keine Meldung erforderlich?

Nicht jede Datenschutzverletzung muss gemeldet werden. Ausnahmen gelten, wenn kein Risiko für die betroffenen Personen besteht. Zum Beispiel, wenn die Daten stark verschlüsselt waren und somit für Dritte unbrauchbar sind.

Benachrichtigung der Betroffenen gemäß Artikel 34 DSGVO

Ist eine Datenschutzverletzung mit hohem Risiko verbunden, müssen betroffene Personen sofort informiert werden. Dies ist wichtig, um ihnen die Möglichkeit zu geben, sich selbst vor möglichen Schäden zu schützen. Unternehmen müssen die Information in klarer und einfacher Sprache bereitstellen und Kontaktmöglichkeiten für Rückfragen angeben.

Ausnahmen von der Benachrichtigungspflicht gibt es, wenn:

  •  Angemessene Sicherheitsmaßnahmen wie Verschlüsselung bestanden.
  • Unmittelbare Maßnahmen das Risiko bereits minimiert haben.
  • Eine individuelle Benachrichtigung unverhältnismäßigen Aufwand bedeuten würde.

 

Praktische Umsetzung für Unternehmen

Um Datenschutzverletzungen frühzeitig zu erkennen und effektiv zu managen, sollten Unternehmen klare Notfallpläne haben. Dazu gehören:

  • Interne Meldeprozesse: Schulung der Mitarbeiter zur schnellen Erkennung von Vorfällen.
  • Technische Schutzmaßnahmen: Firewalls, Verschlüsselung und Zugriffsbeschränkungen.
  • Dokumentation von Vorfällen: Auch nicht meldepflichtige Datenschutzverletzungen sollten intern erfasst werden, um Verbesserungen abzuleiten.

Fazit

Die neuen EDSA-Leitlinien verdeutlichen, dass der Schutz personenbezogener Daten eine zentrale Pflicht für Unternehmen ist. Die korrekte Meldung und Dokumentation von Datenschutzverletzungen kann nicht nur Strafen vermeiden, sondern auch das Vertrauen von Kunden und Partnern stärken. Unternehmen sollten sich aktiv mit den Vorgaben auseinandersetzen und ihre Datenschutzprozesse kontinuierlich verbessern.

Vorsorge ist immer besser als Nachsorge:  Prüfen Sie Ihre Datenschutzstrategie und stellen Sie sicher, dass Ihr Unternehmen auf mögliche Verstöße vorbereitet ist.

Orientierungshilfe der DSK zur datenschutzkonformen Nutzung von KI

Orientierungshilfe der DSK zur datenschutzkonformen Nutzung von KI

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Die Nutzung von Künstlicher Intelligenz (KI) bringt zahlreiche Chancen, aber auch Herausforderungen mit sich – insbesondere im Hinblick auf den Datenschutz. Unternehmen, Behörden und andere Organisationen stehen vor der Frage, wie sie KI-Anwendungen datenschutzkonform einsetzen können. Die Datenschutzkonferenz (DSK), bestehend aus den unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder, hat daher am 6. Mai 2024 eine Orientierungshilfe zu KI und Datenschutz veröffentlicht.

Zielgruppe der Orientierungshilfe

Die Orientierungshilfe richtet sich vorrangig an Unternehmen und Behörden, die KI-Anwendungen in ihren Arbeitsprozessen nutzen oder einführen möchten. Sie bietet einen praxisnahen Leitfaden, um Datenschutzanforderungen einzuhalten und Risiken zu minimieren. Auch Personen, die KI-Systeme entwickeln, herstellen oder bereitstellen, finden hier wertvolle Hinweise, um datenschutzfreundliche Lösungen zu konzipieren. Die Orientierungshilfe ist kein abschließender Anforderungskatalog, sondern eine laufend aktualisierte Empfehlung, die an neue technologische und rechtliche Entwicklungen angepasst wird.

Inhaltlicher Überblick

Die Orientierungshilfe ist sehr umfangreich und behandelt verschiedene Aspekte des Datenschutzes bei der Nutzung von KI. Dabei konzentriert sie sich besonders auf Large Language Models (LLMs), die in den letzten Jahren verstärkt zum Einsatz kommen – sei es als Chatbots oder als Grundlage für weitere Anwendungen.

  1. Auswahl und Konzeption von KI-Anwendungen

Bevor eine KI-Anwendung genutzt wird, sollten Organisationen klar definieren, für welche Zwecke sie eingesetzt werden soll und ob personenbezogene Daten verarbeitet werden. Hierbei sind folgende Fragen entscheidend:

  • Ist der Einsatz der KI rechtlich zulässig?
  • Werden personenbezogene Daten benötigt, oder kann die Anwendung ohne sie betrieben werden?
  • Ist die Verarbeitung von sensiblen Daten, wie Gesundheits- oder biometrischen Daten, überhaupt erlaubt?

Ein besonderes Augenmerk liegt darauf, dass keine automatisierten Letztentscheidungen getroffen werden, da diese nach der Datenschutz-Grundverordnung (DSGVO) nur in engen Ausnahmefällen zulässig sind.

  1. Implementierung von KI in den Arbeitsalltag

Nach der Auswahl einer KI-Anwendung muss sichergestellt werden, dass sie sicher und rechtskonform integriert wird. Dazu gehören unter anderem:

  • Verantwortlichkeiten klären: Wer entscheidet über den Einsatz und die Datenverarbeitung?
  • Datenschutz-Folgenabschätzung durchführen: Falls ein hohes Risiko für Betroffene besteht, muss geprüft werden, welche Maßnahmen notwendig sind.

Nehmt die Leute mit! Es ist wichtig, die Beschäftigten zu sensibilisieren und in den Prozess einzubeziehen. Unternehmen sollten klare Regeln für den Umgang mit KI aufstellen, das Personal schulen und aktiv in die Entwicklung einbinden. Auch der Betriebsrat sollte von Beginn an involviert sein.

Außerdem betont die Orientierungshilfe, dass KI-Systeme am besten als geschlossene Systeme betrieben werden sollten, um Datenschutzrisiken zu minimieren. Offene Systeme, insbesondere solche, die Eingaben für weiteres Training verwenden, sind mit zusätzlichen Herausforderungen verbunden.

  1. Nutzung von KI-Anwendungen

Auch während des laufenden Betriebs gibt es zahlreiche Datenschutzaspekte zu beachten:

  • Transparenz: Nutzende müssen darüber informiert werden, welche Daten verarbeitet werden und wofür.
  • Richtigkeit der Ergebnisse überprüfen: KI-generierte Inhalte können fehlerhaft oder sogar diskriminierend sein. Daher sollte ihre Nutzung immer kritisch hinterfragt werden.
  • Betroffenenrechte umsetzen: Personen haben ein Recht auf Berichtigung, Löschung und Auskunft über ihre Daten. Unternehmen müssen technische Lösungen finden, um diese Rechte durchzusetzen.

Gerade im Umgang mit sensiblen Daten warnt die DSK davor, unkritisch auf KI-Modelle zu vertrauen, da diese Falschinformationen oder diskriminierende Vorurteile enthalten können.

Ein dynamischer Leitfaden für die Zukunft

Die Datenschutzkonferenz hebt hervor, dass die Orientierungshilfe fortlaufend weiterentwickelt wird, um den sich ändernden rechtlichen und technischen Rahmenbedingungen gerecht zu werden. Die rasanten Fortschritte im Bereich KI machen es notwendig, datenschutzrechtliche Anforderungen regelmäßig zu überprüfen und neue Risiken frühzeitig zu erkennen.

BGH-Urteil zum Datenschutz: Kontrollverlust über Daten als Schaden

BGH-Urteil zum Datenschutz: Kontrollverlust über Daten als Schaden

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

BGH-Urteil zum Datenschutz: Kontrollverlust über Daten als Schaden

Der Bundesgerichtshof (BGH) hat mit Urteil vom 18.11.2024 (VI ZR 10/24) entschieden, dass bereits der Verlust der Kontrolle über personenbezogene Daten einen immateriellen Schaden im Sinne des Art. 82 Abs. 1 DS-GVO darstellen kann – unabhängig davon, ob die Daten tatsächlich missbräuchlich verwendet wurden oder spürbare negative Folgen eingetreten sind.

Hintergrund des Falls

Ein Nutzer des sozialen Netzwerks Facebook hatte geklagt, weil seine personenbezogenen Daten – darunter Name, Geschlecht und Telefonnummer – durch ein sogenanntes Scraping-Verfahren unbefugt erfasst und veröffentlicht wurden. Das Unternehmen hatte weder den Kläger noch die zuständige Datenschutzbehörde über den Vorfall informiert. Der Kläger machte geltend, dass er dadurch die Kontrolle über seine Daten verloren habe und dies einen Schaden darstelle.

Entscheidung des BGH

Der BGH stellte klar, dass ein Kontrollverlust über Daten bereits für einen Schadensersatzanspruch ausreicht. Dabei muss der Betroffene nicht beweisen, dass es zu konkreten finanziellen oder sonstigen negativen Auswirkungen gekommen ist. Der Gerichtshof betonte, dass der Datenschutz nicht nur vor Missbrauch schützen soll, sondern auch das Grundrecht auf informationelle Selbstbestimmung stärkt.

Höhe des Schadensersatzanspruchs bei Kontrollverlust über personenbezogene Daten

Die Höhe des Schadensersatzanspruchs bei einem Kontrollverlust über personenbezogene Daten hängt von verschiedenen Faktoren ab. Das Gericht muss insbesondere die Sensibilität der betroffenen Daten (z. B. Gesundheitsdaten gemäß Art. 9 Abs. 1 DS-GVO) sowie deren übliche Verwendungszwecke berücksichtigen.

Weitere entscheidende Aspekte sind:

  • Art des Kontrollverlusts (wer hatte Zugriff: begrenzter oder unbegrenzter Empfängerkreis?),
  • Dauer des Kontrollverlusts,
  • Möglichkeit der Wiedererlangung der Kontrolle (z. B. durch Entfernen der Daten aus dem Internet oder Wechsel der Telefonnummer).

Als Richtwert für einen einfachen Kontrollverlust könnte der hypothetische Aufwand für die Wiederherstellung der Kontrolle dienen. Beispielsweise wurde vom OLG Hamm ein Schadensersatz von 100 Euro als angemessen angesehen. Falls der Betroffene jedoch psychische Beeinträchtigungen geltend macht, die über allgemeine Unannehmlichkeiten hinausgehen, kann das Gericht einen höheren Betrag zusprechen. In solchen Fällen ist eine individuelle Prüfung und Anhörung des Betroffenen erforderlich. Dann könnte der Anspruch höher sein. Tatsache ist aber, dass die deutschen Gerichte bei Schmerzensgeld nicht großzügig sind.

Bedeutung für Nutzer und Unternehmen

Diese Entscheidung ist von großer Bedeutung, weil sie den Schutz von personenbezogenen Daten auf eine neue Ebene hebt. Unternehmen müssen ihre Datenschutzmaßnahmen verschärfen, um Verstöße zu vermeiden. Nutzer sollten sich bewusst sein, dass sie einen Anspruch auf Schadensersatz haben, wenn ihre Daten ohne ihre Zustimmung verwendet werden.

Datenschutz ist mehr als nur Theorie

Mit diesem Urteil wird klar: Der Schutz der Privatsphäre ist kein bloßes Lippenbekenntnis, sondern ein einklagbares Recht. Wer Daten verliert, verliert oft mehr als nur Informationen – und jetzt möglicherweise auch Geld.

 

BGH-Urteil zum Datenschutz: Kontrollverlust über Daten als Schaden

Smarte Geräte, große Fragen: Datenschutz im IoT-Zeitalter

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Smarte Geräte, große Fragen: Datenschutz im IoT-Zeitalter

 

Die Entwicklung des IoT begann bereits in den 1970er-Jahren mit einem vernetzten Getränkeautomaten an der Carnegie Mellon University. Heute sind smarte Geräte aus Haushalten und Unternehmen nicht mehr wegzudenken. Prognosen zeigen, dass der IoT-Markt in Deutschland bis 2028 auf über 51 Milliarden Euro anwachsen wird. Doch während sich die Technologie rasant weiterentwickelt, bleibt der Datenschutz weitgehend ungeklärt.

Ungewisse Datenströme und fehlende Transparenz

Das Internet der Dinge (IoT) vernetzt smarte Geräte mit dem Internet und ermöglicht ihnen den Austausch von Daten. Doch während die Zahl der IoT-Geräte exponentiell wächst, bleiben zentrale Datenschutzfragen ungeklärt. Nutzer wissen oft nicht, welche Daten ihre Geräte sammeln, wohin sie gesendet werden und wer davon profitiert.

Was ist IoT und wo begegnet es uns?

IoT-Geräte sind technische Geräte, die mit einer Software ausgestattet sind und dauerhaft mit dem Internet verbunden sind. Sie generieren Daten, tauschen sie aus und kommunizieren mit anderen Geräten. Der Ursprung dieser Technologie reicht bis in die 1970er-Jahre zurück, als Informatiker der Carnegie Mellon University einen Getränkeautomaten mit Sensoren ausstatteten, um den Füllstand aus der Ferne zu überwachen.

Heute sind IoT-Geräte allgegenwärtig: von Smartphones, Smartwatches und Saugrobotern über intelligente Kaffeemaschinen und Rasenmäher bis hin zu vernetzten Produktionsanlagen und Arbeitsschutzkleidung (Wearables). Insbesondere in der Industrie und im Arbeitsleben gewinnen sie an Bedeutung.

Die Zukunft des IoT: Eine neue technologische Revolution?

Während einige Experten IoT als eine technische Revolution wie das Telefon oder das Internet betrachten, gibt es auch skeptische Stimmen. Dennoch sprechen die Prognosen eine klare Sprache: Der IoT-Markt wird in den nächsten Jahren drastisch wachsen. In Deutschland soll sich der Umsatz bis 2028 auf 51,05 Milliarden Euro vervierfachen. Besonders rasant wächst der Bereich der Konsumgüter, auch wenn er nicht der Haupttreiber der Entwicklung ist.

Welche Daten sammeln IoT-Geräte – und wohin werden sie gesendet?

Eine der drängendsten Fragen ist die Datenverarbeitung durch IoT-Geräte. Nutzer haben derzeit keinen Einblick, welche Daten ihre Geräte erfassen und wohin sie gesendet werden. Dies ist aus datenschutzrechtlicher Sicht problematisch, da sich hier potenzielle Risiken für Verbraucher ergeben.

Warum ist das relevant?

  • Es ist oft nicht ersichtlich, ob und in welchem Umfang personenbezogene Daten übertragen werden.
  • Die Datenschutz-Grundverordnung (DS-GVO) schützt zwar personenbezogene Daten, doch die Abgrenzung zu anonymen oder nicht personenbezogenen Daten ist schwierig.
  • Unternehmen, die IoT-Daten sammeln, sind nicht immer transparent über deren Nutzung.
  • Nutzer haben keinen finanziellen Ausgleich für die durch sie generierten Daten, obwohl diese für Unternehmen einen hohen wirtschaftlichen Wert haben.

Regulierungen: Reicht die DS-GVO aus?

Auf EU-Ebene sind bereits erste Regulierungen in Planung oder Umsetzung, doch ein umfassender Schutz der Verbraucher besteht noch nicht. Die DS-GVO schützt personenbezogene Daten, allerdings bleibt unklar, wer die Kontrolle über nicht-personenbezogene Daten hat.

Der Data Act der EU hat diese Frage bislang nicht eindeutig beantwortet. Besonders unklar bleibt, ob Nutzer Eigentumsrechte an den von ihnen generierten Daten haben sollten und welche Pflichten Hersteller bei der Offenlegung der Datennutzung haben.

Herausforderungen für Verbraucher

Selbst wenn Nutzer technisch in der Lage wären, den Datenfluss ihrer IoT-Geräte zu unterbinden, stellt sich die Frage, ob die Geräte dann noch ordnungsgemäß funktionieren. Hersteller könnten dies als „Mangel“ werten, wodurch Garantieansprüche erlöschen. Zudem bleibt die Frage offen, ob Unternehmen verpflichtet sind, schon vor dem Kauf über die Datenverarbeitung ihrer Geräte zu informieren.

Besonders kritisch ist die Mitbetroffenheit Dritter:

  • Was passiert mit Gästen oder Mitbewohnern, die nicht eingewilligt haben, aber von Kameras oder Sensoren in IoT-Geräten erfasst werden?
  • Welche Rechte haben Personen, die unbeabsichtigt von IoT-Geräten in fremden Haushalten erfasst werden?

Nutzer müssen sich ihrer Daten bewusst werden

Das Internet der Dinge erleichtert unseren Alltag – doch es bringt auch Risiken mit sich. Smarte Geräte wie Sprachassistenten, vernetzte Kameras oder Fitness-Tracker sammeln und übermitteln ständig Daten. Doch wer kontrolliert, was mit diesen Informationen geschieht? Viele Nutzer unterschätzen die Gefahr für ihre Privatsphäre. Ohne klare Einwilligung werden persönliche Daten oft an Unternehmen weitergegeben, gespeichert oder für Werbezwecke genutzt. In einigen Fällen können sogar Bewegungsprofile erstellt oder Gespräche analysiert werden. Viele Geräte scheinen keine Datensicherheit zu gewährleisten, so dass unberechtigte Dritte über die Geräte die Nutzer ausspähen und beispielsweise zur Vorbereitung von Einbruchsdiebstählen nutzen können.

Datenschutz bedeutet, selbst zu entscheiden, welche Daten gesammelt werden und wer darauf Zugriff hat. Nur wer sich dieser Risiken bewusst ist, kann aktiv Maßnahmen ergreifen: Datenschutzeinstellungen anpassen, bewusster Geräte auswählen und gezielt Funktionen deaktivieren. Datenschutz ist kein Luxus, sondern ein Schutzschild für die eigene Privatsphäre. Wer sich informiert, bleibt souverän – auch in einer vernetzten Welt!

Es braucht mehr Transparenz und Regulierung

IoT ist nicht mehr aus unserem Alltag wegzudenken, doch der Datenschutz hinkt hinterher. Nutzer haben weder Einblick in die Datenströme noch die Möglichkeit, ihre Daten zu kontrollieren oder zu monetarisieren.

Dringende Fragen, die geklärt werden müssen:

  • Welche europäischen Rechtsgrundlagen regeln die Datenverarbeitung von IoT-Geräten?
  • Welche Rechte brauchen Verbraucher?
  • Welche Pflichten sollten IoT-Herstellern auferlegt werden?
  • Brauchen wir eine „Datenampel“ zur besseren Kennzeichnung?

Mehr zu diesem Thema in der DANA – Zeitschrift der Deutschen Vereinigung für Datenschutz: DANA-Archiv 2023.

Kronkel und Otonkel #2

Kronkel und Otonkel #2

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Kronkel und Otonkel

Zwei Internetzspinnen auf Abenteuer

 

Ein Tag im Schnee und eine tolle Idee.

Als Juna morgens vom Duft der frisch in der Pfanne liegenden Eierkuchen erwachte, rannte sie gleich ans Fenster und sah das, was jedes Kinderaugenpaar an einem 30. Dezember erblichen will: Schnee!!! So viel Schnee. Es sah wahnsinnig gut aus und Juna vergaß die Eierkuchen und wollte am liebsten gleich raus in den Schnee. Sie rannte die Treppe hinunter, riss die Haustür auf und lief barfuß und im Schlafanzug hinaus. Es dauerte nicht lange bis eine entsetzte Mamastimme sie hineinzitierte. Bevor dies geschah, konnte Juna aber den Schnee noch riechen und die Schneelandschaft hören. Der Schnee roch nach erstarrtem Regen. Über allem lag eine weiße Decke, die alle Geräusche dämpfte. Sogar das Bellen von Ursulas Dackel Waldemar klang wie durch eine dicke Steppdecke. 

Juna setzte sich in die Küche an den Tisch und versuchte, den vorwurfsvollen Blicken der Mutter auszuweichen. „Sag mal liebes Kind, hast Du Dir vorher mal überlegt, wie unvernünftig das ist, sich ohne Schuhe und nur in einem Schlafanzug in den Schnee zu stellen?“ 

„Ähm, ja!“, sagte Juna. 

“Gut, dann hast du ja wenigsten hast nachgedacht, bevor Du Dich dafür entschieden hast“, erwiderte ihre Mama. 

Junas Mama servierte ihr einen wunderbaren Eierkuchen mit Nutella und einer Prise Zucker und Zimt. Am Tisch saß jetzt auch ihre kleine Schwester Emma. Sie mampfte schon längst den zweiten Pfannkuchen. Diesmal aber mit selbst gemachter Himbeermarmelade. Diese Marmelade färbte leider sehr schnell andere Sachen wie Tischdecken, Armlehnen, T-Shirts, Hosen, aber vor allem Teppich und Fußboden rot ein.

„Carolin!!!“, rief Papa Bernhard, entsetzt der Mutter zu: „Wir haben einen Himbeermarmeladenbefall auf dem Tisch!“ 

 „Ach Du meine Güte! Wieso holt denn keiner einen Lappen? Ruf sofort die Lappenhilfe an!“, rief Mama Carolin. 

In diesem Moment maunzte die Familienkatze Minka und schlängelte sich um Carolins Beine – aber ohne jeglichen Lappen und um den Himbeerfleck auf den Tisch durfte sie sich nicht kümmern, den Katze auf dem Esstisch ist viel schlimmer als Hund in der Badewanne, wenn man drin sitzt. Juna ging souverän zur Küchenspüle und kehrte mit einem „Tatütata“ zurück, um mit einem Wisch die Himbeeren vom Tisch zu wischen. Bernhard, der Papa, danke mit einem: „Achtung, Achtung, wir danken der Lappenhilfe für den Einsatz!“

Die ganze Familie saß am Tisch und die 8-jährige Emma lag allen in den Ohren, weil sie ständig nur einen Satz sagte: „Wann können wir raus in den Schnee und wo ist unser Schlitten?“

Dieser Satz wurde von Bernhard immer wieder mit dem gleichen Satz beantwortet: „Wenn wir alle satt sind.“ Dann nahm er sich einen weiteren Eierkuchen und schmierte auf diesen Nutella. Es dauerte für die Kinder so ewig, dass sie das Gefühl hatten, sie wären wieder rückwärts im Mittelalter angekommen.

Irgendwann war Familie Jürgenson mit dem Frühstück fertig. Besser gesagt: Papa Bernhard war endlich satt.

„Papa, jetzt hol schon endlich den Schlitten aus dem Keller!“, forderte Juna ungeduldig mit nachdrücklicher Stimme.

Der Vater ging in den Keller und es dauerte nicht lange, bis sie ihren Vater schimpfen hörten:

„Wer hat denn hier diesen ganzen alten Mist in den Weg gestellt? Wieso stehe ich mit einem Bein in einem Karton? Hier ist eine furchtbare Unordnung!“

Der Vater musste aufhören, zu schimpfen, denn er kam nicht umhin, sich daran zu erinnern, dass er das selbst alles dahin gestellt hatte. Solche Keller sind furchtbar gemein: Man kann da Sachen hinstellen, dann sieht man sie nicht mehr und schlussendlich vergisst man, dass man sie hat.

So eine Art Keller gibt es auch auf jedem Computer. Aber dazu später mehr. Jetzt haben wir keine Zeit, denn die Kinder wollen in den Schnee!

Endlich waren die Kinder im Schnee. Die Schlitten waren startklar. Juna und Emma trafen die Nachbarskinder. Ursulas Dackel Waldemar hatte nach 15 Minuten Dauerbellen endlich aufgegeben. Nun ertönten nur die Schreie der freudigen Kinder, die sich gegenseitig mit Schneebällen bewarfen. Es war der Klang eines wunderschönen Wintertages.

Zu den Nachbarkindern gehörten die Schmidtchen-Jungs. Alle Kinder tobten den ganzen Tag im Schnee. Sie schafften es, dass vor jedem Haus ein Schneemann stand. Zuletzt begannen sie den Bau eines Iglus, mussten wegen einbrechender Dunkelheit, einsetzendem Schneefall und kalten Händen aber die Baumaßnahmen abbrechen. Sie verabredeten sich für den nächsten Tag.

Juna und Emma gingen nach Hause und zogen gleich im Flur ihre mit Schnee belasteten Schuhe, Jacken und Hosen aus, als sich plötzlich von der Decke eine kleine Spinne an ihrem Faden abseilte und knapp vor Emmas Nase stoppte.

„Ihhhh, Hilfe, eine Spinne!“, schrie Emma und machte aus dem Stand einen weiten Sprung zurück. Papa Bernhard kam in den Flur gerannt und schaute beide Kinder erschrocken an.

„Was ist denn los? Hat sich jemand wehgetan“?“, fragte er besorgt.

 „Nein, Emma hat Angst vor der kleinen Spinne da.“ , sagte Juna. Sie zeigte auf die Spinne, die im Flur an ihrem Faden hin und her schwang. Papa Bernhard ging zu Emma und umarmte sie. Dann sagte er: „Emma, vor der kleinen Spinne da brauchst Du keine Angst haben. Sie hat wahrscheinlich mehr Angst vor uns und tut nur Fliegen etwas zuleide.“ Juna grinste, Emma schaute unglücklich zur kleinen Spinne.

Papa Bernhard sah zu den Kindern und sagte: „Spinnen sind sehr nützliche Tiere und wenn eine Spinne im Haus ist, dann fängt sie für einen die Mücken und Fliegen. Außerdem können nur Spinnen so wunderbare Netze bauen wie dieses da oben in der Ecke. Schaut nur hin, so etwas Schönes und Geordnetes schafft nur eine Spinne, mit ihrem Faden zu spinnen!“

Emma war mit der ganzen Situation noch nicht im Reinen und wollte in das warme Wohnzimmer. Bernhard servierte seinen beiden Töchtern einen heißen Kakao, während sie es sich unter dicken Decken auf dem Sofa vor dem Kamin bequem machten.

Juna holte ihren Laptop und wollte Emma etwas über Spinnen aus dem Internet zeigen. Dann aber fragte Emma: „Wie funktioniert das Internet eigentlich?“ Juna sah sie an und sagte: „Na ganz einfach mit einem Netz von Kabeln und dazwischen sind Router und Server.“ Emma fragte: „Was machen die Router und Server? Wie sehen die denn aus?“ Juna rief nach ihrer Mutter, denn sie wusste, dass egal was Juna jetzt erzählte, ihre kleine Schwester es entweder wirklich nicht verstand oder nicht verstehen wollte. Das war immer so, wenn Juna ihr etwas erklärte.

Mama Carolin erschien im Wohnzimmer, setze sich auf einen Sessel neben dem Sofa und fragte: “Na ihr Schneehasen, was gibt es denn für ein Problem?“ Juna erklärte, dass Emma gern wissen wollte, wie das Internet funktioniert. Die Mutter holte tief Luft und sagte: „Also Folgendes… ich muss mal kurz überlegen…..mmmm.

 Juna sah ihre Mama an und sagte: „Mensch Mama, als Informatikerin dürfte das für Dich doch wirklich pillepalle sein!“ Die Mutter runzelte die Stirn und sagte: „Stimmt, deswegen ist es ja auch so schwierig mit der Erklärung. Versuch Du doch mal jemanden zu erklären, wie man läuft.“

Carolin holte noch einmal tief Luft und setzte an zum Erklärungsmarathon: „Das Internet ist ein riesiges über die ganze Welt verteiltes und mit Kabeln oder Funk verbundenes Netz aus Computer. Sozusagen ein weltweites Netzwerk. Natürlich gibt es noch einzelne Gebiete, wo es kein Internet gib. Dies ist dort, wo keine Menschen leben. Dort wo Menschen wohnen und arbeiten gibt es aber auf der ganzen Welt den Zugang zum Internet. Weil so die ganze Erde mit dem Internet umspannt ist, wird es als weltweites Netzwerk bezeichnet. Wenn Juna mit ihrem Laptop im Internet „surfen“ möchte, dann muss sie dort erst einmal hineinkommen. Sie braucht einen Zugang zum Internet, quasi eine Tür ins Netz.

 Diesen Zugang liefern die Internetanbieter. Weil diese Unternehmen jemanden das Internet „bereitstellen“ werden sie „Provider“ genannt. Der Begriff kommt aus der englischen Sprache. Er bedeutet übersetzt „versorgen, „bereitstellen“. Mit einem Provider schließt derjenige, der das Internet nutzen will, einen Vertrag. Wenn zwei Personen einen Vertrag schließen, dann verpflichten sie sich gegenseitig. Der Provider verpflichtet sich, den Zugang zum Internet bereitzustellen, und der Nutzer bezahlt Geld dafür. Verträge kann nicht jede Person schließen, sondern nur diejenigen die voll geschäftsfähig sind. Dies bedeutet, dass sie sich rechtlich wirksam zu etwas verpflichten können und sich dann auch daran halten müssen. In Deutschland und in den meisten anderen Ländern ist ein Mensch mit 18 Jahren voll geschäftsfähig. Juna kann also den Vertrag nicht schließen, sondern wir Eltern haben den Vertrag mit unserem Provider geschlossen. Juna kann das Internet mit unserer Zustimmung nach den von uns aufgestellten Regeln nutzen.

Nachdem wir den Vertrag mit unserem Provider geschlossen haben, hat dieser uns einen Router geschickt. Dies ist ein technisches Gerät, dass die „Tür“ zum Internet öffnet. Dieses Gerät wird an ein Kabel, so wie früher das Telefon angeschlossen. Dieses Kabel verläuft dann aus unserem Haus und trifft in einem großen grauen Kasten, der meistens an der Straße steht, auf andere Kabel, die miteinander durch Verteilerstecker verbunden sind. So geht es über immer weitere Kabel zu anderen Kabeln quer durch Deutschland und die ganze Welt. Weil dieser erste Router auch das WLAN, also Internet über Funk bei uns im Haus erzeugt, wird das Gerät auch WLAN-Router genannt. Doch zurück zum Internet. Wenn Juna jetzt durch die Tür ins Internet geht, dann muss ihr Computer erst einmal eine „Anfrage“ senden, wo er hin will. Die Anfrage ist eine Adresse einer bestimmten Webseite, die auf einem bestimmten Server liegt. Alle technischen Geräte, die im Internet sind, haben so eine IP-Adresse. Diese ist notwendig, um ein Gerät im Internet zu finden. IP ist die Abkürzung für Internetprotokoll. Unter einem Protokoll versteht man einen immer gleichen Ablauf oder eine bestimmte Form, die eingehalten werden muss. Bei dem Internetprotokoll ist dies eine ganz bestimmte Abfolge von Zahlen. Das Prinzip ist ähnlich wie bei der Telefonnummer.

Der Hausrouter schickt also die Anfrage an einen weiteren Router, der dann weiter verbindet, zu einem Server. Router sind also technische Geräte, die der Anfrage den Weg leiten. Sie sind diejenigen, die der Anfrage eine Route, also einen festgelegten Weg geben und die Anfrage so zu einem zuständigen Server leiten.

Ein Server ist ein Computer ohne Bildschirm. Der Bildschirm wird nicht gebraucht, weil auf dem Computer ausschließlich Daten liegen, die jemand abrufen kann. Der Server stellt also Daten wie beispielsweise zur Darstellung einer Internetseite bereit. Er serviert also nicht Nudeln mit Tomatensoße oder Vanillepudding, sondern Daten. Das kann natürlich auch ein Bild von Nudeln mit Tomatensoße sein….

Damit Junas Computer wieder geantwortet werden kann und die Daten an den Computer gesendet werden können, braucht er eine Anschrift. Er hat auch eine IP-Adresse, die er mit seiner Anfrage gleich mitgesendet hat. So können die Daten von dem Server, also dem Computer, auf dem die Daten gespeichert sind, abgerufen werden und finden den Weg im Internet zu Junas Computer. Weil so viele Computer miteinander verbunden sind, wird das World Wide Web, übersetzt das weltweite Netz, Gewebe, Gespinst oder Matrix auf Internet genannt. Ähnlich einem Spinnennetz. Das Internet ist also auch systematisch, aber nicht so schön symmetrisch, also ebenmäßig/gleichartig wie ein Spinnennetz. Und so funktioniert das Internet.“

Als die Mutter ihre lange Erklärung beendet hatte, war es fast ganz still im Wohnzimmer. Nur das Schnurren der Katze und das leise Schnarchen von Papa Bernhard war zu hören…

Kronkel und Otonkel #2

Kronkel und Otonkel #1

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Kronkel und Otonkel

Zwei Internetzspinnen auf Abenteuer

Bevor Konkel und Ottonkel auf die Welt kamen.

Es war am 29. Dezember, als sich Juna an ihren Laptop setzte. Draußen stöberte der Schnee und legte sich genüsslich auf die Dächer, Straßen und Wiesen in der Stadt. Es wurde langsam dunkel und der Schnee musste wohl oder übel auf den nächsten Morgen warten, bis er von Kinderhänden zu Schneebällen und Schneemännern geformt wird. 

Juna überlegte und zog ihre Stirn in Falten. Sie sah dabei sehr wichtig aus und fühlte sich auch so. Immerhin war es ihre erste richtige Programmierung. Neben ihr saß ihr liebstes Lieblingskuscheltier und sah zu, wie die Kinderhände über die Tastatur sausten, als ob sie dies schon immer gemacht haben. Muffel war ein Kuscheltier mit Rang und Namen. So ein Kuscheltier wünschte sich jedes Kind. Es war ein Weihnachtsmaushasenmonster! Jetzt fragt ihr Euch sicher, was bitteschön ein „Weihnachtsmaushasenmonster“ ist. Ich kann Euch sagen, dass es verdammt niedlich aussieht und wuscheliges weiches weinrotes Monsterfell hat. Es trocknet jede Träne und freut sich über jedes Kinderlachen.

„Weihnachtsmaushasenmonster“ sind sehr zuverlässig. Sie bemühen sich stets in der Nähe seines Kindes zu bleiben. Es hat große, ja riesig große niedliche Kulleraugen und ein breit lächelndes Mäulchen, in das genau ein halber Lebkuchen hinein passt. Deswegen war der Mund auch selbst immer Sommer noch etwas klebrig. Deswegen hatte das Weihnachtsmaushasenmonster von Zeit zu Zeit einen Wollmausschnurrbart. Das wiederum führte dazu, dass die anderen Kuscheltiere im Kinderzimmer Muffel des Öfteren mit Pierre Camembert, dem Nackenkissenkuscheltier aus Frankreich verwechselten. Das gefiel Muffel gar nicht. Trotzdem hatte Muffel immer gute Laune, obwohl der Name das eigentlich nicht vermuten lässt. 

Muffel trug immer einen wunderschönen gehäkelten Blumenstrauß mit roten und blauen Blumen in seiner rechten Hand. In der Linken hatte er nicht einfach einen Nuckel, sondern genau „den“ Nuckel, den Juna als letzten genuckelt hatte. Muffel kam genau an dem Tag zu Juna, als sie aufhörte zu nuckeln.

Vor neun Jahren sind Muffel und Juna am Heiligabend unzertrennlich geworden. Am Anfang konnte Juna Muffel überhaupt nicht leiden, weil er der Grund dafür war, dass Juna ihren Nuckel an ihn abgeben musste. Es war so, dass Juna eine sehr nette ältere Nachbarin Namens Ursula hat. Und Ursula war damals immer sehr neugierig, wenn es um Juna und ihren Nuckel ging. Als Juna 4 Jahre alt war, fragte die Nachbarin jedes Mal, wenn sie Juna und ihre Mutter auf der Straße traf, wann das Kind denn endlich den Nuckel abgeben würde. Irgendwann hat sich Juna über diese Ursula so sehr geärgert und fand es blöd, dass sie sich jedes Mal erklären musste, wieso denn so ein erwachsenes Kleinkind noch gerne nuckelt, dass sie einmal zu Frau Ursula sagte: „Wenn an Weihnachten ein Maushasenmonsterkuscheltier zu mir kommt, dann höre ich auf zu nuckeln.“ Juna war felsenfest davon überzeugt, dass keine Maushasenmonsterkuscheltiere auf dem Erdball zu finden seien und dass es sie auf gar keinen Fall zu kaufen gab.

Leider hatte Juna nicht mit der Einfältigkeit von Ursula gerechnet. An dem besagten Heiligabend klingelte es an der Haustür. Ursula stand mit einem breiten Grinsen im Hauseingang. Gott bewahre, so ein breites Grinsen hatte Juna zuvor noch bei keinem Menschen gesehen. Nicht einmal bei ihrer Mama, wenn sie Juna mit Puffreis überraschte. Juna war erschrocken und neugierig zugleich, als Ursula plötzlich hinter ihrem Rücken aus der linken Hand ein selbst gehäkeltes Kuscheltiermaushasenmonster hervorzog und Juna direkt ins Gesicht hielt. Ahhhhhhhhhh! Ursula sagte zu Juna, dass sie dieses wunderschöne Kuscheltier extra für sie gehäkelt und aufgeplüscht hätte. Juna verschlug es die Sprache. Sie konnte nur ein „Grieehhnnn“ stammeln, denn ihre Gefühle konnte sie in diesem Moment nicht anders ausdrücken.

Während ihre Mama und Ursula sich über dieses wunderhübsche Tier unterhielten und Junas Mama mehrfachen Dank aussprach, sowie eine prall gefüllte Schachtel der besten selbst gebackenen Weihnachtsplätzchen an diese aufdringliche, sich in die Nuckelangelegenheiten von Juna einmischende, Nachbarin verjubelte, betrachtete Juna das Kuscheltier in ihren Händen. Auch wenn Juna gerade aufs äußerste muffelig war, musste sie dieses verrückt aussehende „Weihnachtsmaushasenmonster“ anlächeln. „So ein Mist!“, dachte Juna. Nachdem Ursula nach einer gefühlten Ewigkeit endlich von einsetzendem Nieselregen von der Haustür vertrieben wurde, ging Juna in das Wohnzimmer und widmete sich ihren Geschenken.

Es war ein wunderschöner Weihnachtsabend, bis auf die Tatsache, dass da in der Ecke jetzt ein „Weihnachtsmaushasenmonster“ ständig traurig und ein wenig irre auf ihren Nuckel im Mund starrte. Es war jedes Mal für Juna ein furchtbarerer Anblick in diese großen niedlichen Kulleraugen schauen zu müssen. Wer hätte auch gedacht, dass Ursula so einen hinterhältigen Plan aushecken würde und ein schier nicht auf der Welt befindliches Kuschelvieh einfach selbst erschaffen würde! 

Als Juna dann ins Bett ging, hatte sie ein Erbarmen mit dem Viech und konnte es nicht über das Herz bringen es einsam und verlassen in der staubigen Wohnzimmerecke zwischen Heizung und Bücherregal liegen zu lassen. Sie nahm es mit in ihr Bett. Diese Geste veränderte alles, denn jetzt wollte Juna plötzlich nicht mehr nuckeln, sondern Muffel. Furchtbar. Eine sehr komische Situation. Juna kann sich noch immer nicht erklären, was damals passierte, aber seit diesem Heiligabend mochte Juna ihren Nuckel nicht mehr und seitdem hat Muffel ihn in seiner rechten Hand, auch wenn er mit seiner rechten Hand gerade einen Lebkuchen isst.

Juna sah Muffel an. „Was guckst Du denn so? Keine Angst, ich werde Dich nicht vernachlässigen“, sagte sie zu ihm. „Ich programmiere doch nur ein bisschen, denn Programmierung ist eine wichtige Angelegenheit. Ohne diese würde es gar keine Informatik geben!“ Das Kuscheltier sah Juna an: „Was! Habe ich Dir nicht erklärt, was programmieren ist? Passt Du denn nie auf, wenn ich mir Dir vor dem Computer sitze?“, zischte Juna ihr Kuscheltier an. Muffel glotzte wie immer mit seinen großen Kulleraugen und war so niedlich, dass sie Muffel seine Unwissenheit nicht weiter vorwerfen konnte.

„Na gut, ich will Dich informieren und dass bedeutet, dass ich Dir erkläre, was Informatik, Wissenschaft, Computer und Programmieren ist“, sagte Juna und erklärte: „Mit dem Wort „Informatik“ wird ausgedrückt, was Menschen mit Computern, also mit besonderen elektronischen Geräten machen, wenn sie sich damit sehr gut auskennen und noch dazu herausfinden wollen, was sie alles noch so mit Computern machen können. Wenn ein Mensch sich mit etwas total gut auskennt, sagt man, dass er viel Wissen darüber hat. Das kann Wissen über die Natur, den Wald, Wiesensumpfdotterblumen, Tiere, Mathematik, Kunst, Astronomie, Physik, Chemie oder eben auch Wissen über Computer sein. Wenn der Mensch sich nur noch damit beschäftigt und er sich dazu berufen fühlt, alles darüber herauszufinden, und auch neue Dinge darüber herausfinden will, die bis jetzt niemand entdeckt hat, dann ist der Mensch ein Wissenschaftler und das was er macht eine Wissenschaft. Wissen ist also die Bezeichnung für ganz viele Informationen über ein ganz bestimmtes Thema, dass viele Menschen interessiert und sie sicheres Wissen darüber erlangen wollen. Wenn sich ein Mensch mit einer Sache die eigentlich ganz einfach ist lange beschäftigt und andere den Eindruck haben, dass er sich umständlich anstellt. Zum Beispiel, wenn jemand ewig braucht und ein großes Tohuwabohu, um sein Hausaufgabenheft aufzuschlagen. Dann gibt es das Sprichwort: „Mensch, mach keine Wissenschaft daraus!““

Jetzt müssen wir noch über die besonderen elektrischen Geräte sprechen. Elektrisch bedeutet, dass die Geräte nur mit Strom zum Beispiel aus der Steckdose funktionieren. Juna erhob den Zeigefinger und sagte in einem eindringlichen Ton, so wie ihre Mama manchmal zu ihr sprach: „Strom kann auch gefährlich sein mein Muffel! Wenn man einen elektrischen Schlag bekommt, weil man das Stromkabel falsch bedient oder die Steckdose, dann ist das für Dich sehr gefährlich! Wenn der Strom durch Deinen Körper fließt, dann kann er Deinen Herzschlag aus dem Takt bringen und das ist lebensgefährlich! Also mein lieber Muffel: Nie allein an die Steckdose oder das elektrische Kabel! Du musst auf Dich aufpassen. Ich habe Dich so unheimlich lieb, dass ich auf jeden Fall vermeiden möchte, dass Dir etwas Schlimmes passiert!“

„So, jetzt aber zurück zu den elektrischen Geräten“, sagte Juna und erklärte dem mittlerweile etwas müde wirkendem Muffel: „Diese Geräte heißen Computer. Das Wort kommt aus dem Englischen und bedeutet rechnen. Deswegen nennt man die Geräte in der deutschen Sprache auch Rechner. Wenn ich also am Rechner sitze, dann ist das mein Laptop, ein Computer. Nun ahnst Du bestimmt, was der Rechner macht: Genau, der macht nix anderes als rechnen. Rechnen findet der voll spitze und am liebsten mag der Rechner, wenn jemand ihm sagt, was er rechnen soll. Der Rechner wird deshalb mit Informationen gefüttert, die aussehen wie Rechenaufgaben. Weil der Computer sehr gerne rechnet, kann er das richtig gut. Viel besser und genauer als ein menschliches Gehirn. Solche Aufgaben wie 1+1 = 2 oder 80: 8 = 10 sind für den pillepalle. Davon wird der nicht „rechensatt“. So ein Computer braucht schwierige Aufgaben. Solche Aufgaben nennt man mathematische Gleichungen und wenn ganz viele Gleichungen miteinander verbunden und geplant aneinandergereiht werden, entsteht ein Rechenvorgang. Das nennt man in der Mathematik, der Wissenschaft über Zahlen und geometrische Formen, dann einen Algorithmus und so entsteht eine Programmierung. Die Programmierung ist also ein Rechenplan für den Computer. Und jetzt Muffel kommt der absolute Knaller! Mit so einer Programmierung, das nennt man in der englischen Sprache auch „Code“, kann man dem Computer sagen, was er machen soll! Weil der Rechner eigentlich nur mit Strom funktioniert und Strom nur „An“ und „Aus“ gehen kann, versteht der Computer nur „An“ und „Aus“. Man kann also seinem Rechner nur sagen, was er machen soll, wenn man sog. binäre also paarweise Zahlenfolgen mit den Zahlen „0“ und „1“ verwendet.“

Juna überlegt und sagte dann: „Weil das mit dieser 01011100 oder der 010001100 aber total schwierig in den Computer einzugeben ist, haben die Menschen „Programmiersprachen“ erfunden. Da gibt es ganz verschiedene Sprachen, also verschiedene mathematische Übersetzungen von „0“ und „1“ in Gleichungen. Diese heißen zum Beispiel:

  • Javascript
  • Java
  • C und C++
  • C# (C Sharp)
  • Visual Basic
  • PHP
  • Python
  • Scratch
  • Delphi/Object Pascal
  • Swift
  • SQL
  • HTML & CSS“

Juna gähnte, Muffel kippte müde nach vorne auf die Tastatur. Jetzt war es Zeit, ins Bett zu gehen. Sie schaltete ihren Laptop aus, putzte ihre Zähne und Muffels Mäulchen. Sodann kuschelte sie sich in ihr warmes Bett mit Wärmflasche an den Füßen und drückte Muffel fest an sich.

Draußen wartete schon ganz schön viel Schnee und der stöberte ungeduldig über die Dächer der Stadt.

 

 

 

 

 

 

 

Ein Kind hat Anspruch auf Wahrung seines Persönlichkeitsrechtes

Ein Kind hat Anspruch auf Wahrung seines Persönlichkeitsrechtes

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Rechtsfähigkeit und Geschäftsfähigkeit sind zwei Paar Schuhe.

Die Rechtsfähigkeit muss von der Geschäftsfähigkeit unterschieden werden. Rechtsfähigkeit bedeutet, dass ein Mensch es selbst Träger von Rechten und Pflichten sein kann, § 1 BGB. Die Geschäftsfähigkeit bezeichnet das eigenständige rechtsverbindliche Handeln im Rechtsverkehr. Bei Kinder tritt mit 7 Jahren die beschränkte Geschäftsfähigkeit ein, § 106 BGB. An diesem Alter kann ein Kind unter bestimmten engen Voraussetzungen (§ 110 BGB Taschengeld oder § 107 BGB) selbst rechtsverbindlich Verträge schließen kann. Mit 18 Jahren ist ein Mensch nach dem deutschen Recht volljährig und damit voll geschäftsfähig, § 2 BGB.

Beginn und Ende Rechtsfähigkeit

Die Rechtsfähigkeit ist vom Alter des Menschen unabhängig. Sobald das Kind geboren ist, in der juristischen Definition: Mit dem vollständigen Austritt aus dem Mutterleib, ist das Kind voll rechtsfähig, § 1 BGB. Die Rechtsfähigkeit endet mit dem Tod. Als im Jahr 1900 das BGB in Kraft trat, hat es keiner für notwendig erachtet dies aufzunehmen, da sich dies aus der Natur der Sache ergebe. § 1922 Abs.1 BGB als zentrale Norm des Erbrechts bestimmt dies mittelbar, indem festgeschrieben ist, dass mit dem Tod eines Menschen der Erbfall eintritt.

Kind hat eigenes Persönlichkeitsrecht.

Jedes Kind hat ein Persönlichkeitsrecht. Das Kind hat nach Art. 2 Abs.1 und Art. 1 Abs.1 GG (Grundgesetz) ein eigenes gesetzlich normiertes Persönlichkeitsrecht. Zudem ist der Persönlichkeitsschutz des Kindes Bestandteil des elterlichen Erziehungsrechtes nach Art. 6 GG. Eine spezielle Ausprägung des Persönlichkeitsrechtes ist das Recht am eigenen Bild.

Das Persönlichkeitsrecht des Kindes ist besonders zu schützen.

Das Persönlichkeitsrecht des Kindes ist von allen Personen, vor allem aber von den Eltern zu beachten und zu schützen! Das Recht des Kindes, beispielsweise am eigenen Bild ist, bedarf eines besonderen Schutzes. Das Kind befindet sich in seiner Persönlichkeitsentwicklung. Verletzungen des Persönlichkeitsrechts durch Fotos oder Videoclips im Internet können diese Entwicklung dauerhaft und nachhaltig beeinträchtigen. Fakt ist: Das Netz vergisst nichts. Einem Kind ist vor allen Dingen also Achtung seiner Person entgegenzubringen. Es ist ein gleichwertiger Teilhaber des Persönlichkeitsrechtes wie ein Erwachsener. Dieser Rechtsstatus wird auch nicht dadurch geändert, weil Kinder niedlicher sind als die meisten Erwachsenen. Dies bedeutet also, dass jeder Elternteil genauestens prüfen muss, ob das Einstellen eines „niedlichen“ oder „hübschen“ Kinderbildes im Internet tatsächlich notwendig ist und wem es nützt. Nützt das Foto nur dem Elternteil, wird das Kind zum „Vorzeigeobjekt“ und ist in seinem Persönlichkeitsrecht beeinträchtigt.

Eltern als Hüter des Persönlichkeitsrechts

Die Eltern haben nach § 1626 Bürgerliches Gesetzbuch (BGB) die Pflicht und das Recht für ihr Kind zu sorgen. Sie sind nach dem Bundesverfassungsgericht die Treuhänder und Garanten für das Persönlichkeitsrecht des Kindes. Sie treffen die Entscheidung, welche Bilder sie von ihrem Kind in das Netz stellen. Die Sorgeberechtigung bedeutet, dass die Eltern die Einwilligung für eine Verbreitung von Bildnissen ihres Kindes in der Öffentlichkeit in Vertretung für ihr Kind geben können. Da es nun aber nicht nur das Recht, sondern auch die Pflicht der Eltern ist, im Interesse des Kindes zu handeln, müssen Eltern eine Gefährdung des Kindeswohls vermeiden.

Kindeswille ist beachtlich.

Das Kind soll selbst entscheiden können, wenn es aufgrund seiner Entwicklung die Einsichts- und Beurteilungsfähigkeit hat, in welchem Umfang seine privaten Angelegenheiten, sein Bildnis oder seine Darstellung der Persönlichkeit öffentlich wahrgenommen werden kann. Hat das Kind noch nicht die notwendige Einsichtsfähigkeit, entscheiden die Eltern. Aber die Eltern sollten sich immer wieder in das Gedächtnis rufen: Auch das NEIN eines 1-jährigen Kindes ist beachtlich! Hierbei ist klar, dass das Kind nicht nur durch Sprache, sondern auch durch verständliche Handlungen, ausdrücken kann. Wenn das Kind kein Foto oder Video von sich möchte, dann ist das von den Eltern zu akzeptieren!

 

 

BGH-Urteil zum Datenschutz: Kontrollverlust über Daten als Schaden

Die Künstliche Intelligenz kann Menschen diskriminieren.

Künstliche Intelligenz kann Menschen diskriminieren. Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass Anwendungen von KI diskriminieren können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen und einer Tierart zugeordnet hatte. Wie kann das sein? Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Diskriminierung in sich. Beispielsweise wird bei einem Lebenslaufverlauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen. Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung? Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen ausschließen. Dies deckt sich aber nun überhaupt gar nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte. Lösung der „Subobjektivität“ überhaupt möglich? Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird.

Seit einiger Zeit ist durch verschiedene Beispiele bekannt, dass bei der Verwendung von KI Diskriminierungen erfolgen können. Beispielsweise wurden Frauen gegenüber Männern bei der Vergabe von Krediten benachteiligt. Es wurden auch Menschen entehrt. Dies geschah, weil die Gesichtserkennung Fotos von einzelnen Personen automatisiert verglichen hat und einer Tierart zugeordnete.

Wie kann das sein?

Eigentlich könnte man davon ausgehen, dass KI keine diskriminierenden Entscheidungen treffen kann, denn im Gegensatz zum Menschen, berechnet die KI emotionslos. Die Entscheidung ist das Resultat einer Rechenoperation. Diese ist logisch und gefühllos. In der Tat trifft die KI ihre Entscheidungen auch sachlich, unvoreingenommen und unparteiisch, also objektiv. Dennoch kann der selbst lernende Algorithmus im Ergebnis Menschen diskriminieren, denn die Ausgangsmerkmale, mit denen das Programm rechnet, tragen bereits die Quelle für eine Diskriminierung in sich. Beispielsweise wird bei einem Lebenslauf eine Mutter mit Zeiten der Arbeitsunterbrechung der KI auffallen. Wenn nun die KI nicht die Gründe für diesen Unterschied gegenüber kinderlosen Personen kennt und wie es mit diesem umzugehen hat, dann kann es zu einer Benachteiligung der Mutter aufgrund dieses Merkmals kommen.

Ausschluss von Diskriminierung durch mehr Daten oder positive Diskriminierung?

Es klingt paradox, aber je mehr Daten die KI hat, umso besser kann diese differenzieren und Benachteiligungen vermeiden. Dies deckt sich aber nun überhaupt nicht mit dem Grundsatz der Datensparsamkeit. Ein Dilemma. Deswegen wird auch in den Fachkreisen überlegt, ob eine positive Diskriminierung, also die gezielte und offenkundige Bevorzugung benachteiligter Menschen, das Problem lösen könnte.

Lösung der „Subobjektivität“ überhaupt möglich?

Im Grunde ist die Diskriminierung ein Ergebnis einer gleichzeitig subjektiven wie auch objektiven Entscheidungsfindung. Sozusagen eine „Subobjektivität“, denn anhand von subjektiven Merkmalen trifft die KI objektive Entscheidungen. Die für die KI vorgegebenen Kriterien sind also der Grund für die Diskriminierung. Die Ausgangsparameter setzt der Mensch. Deswegen ist es enorm wichtig, dass alle Auswahlkriterien so bestimmt werden, dass nicht durch das Zusammentreffen von subjektiven Kriterien und objektive Berechnungen eine diskriminierende Entscheidung von der KI vorgeschlagen wird. Die KI könnte, ohne weitere Angaben wie sie rechnen soll, eine Vielzahl von Personen anhand ihrer subjektive Merkmale objektiv vergleichen und so eine  „optimale“ Person ermitteln, die dem Mainstream aus allen am Vergleich teilnehmenden Personen entspricht. Merkmale von Minderheiten würden nicht oder negativ berücksichtigt werden. Eine Diskriminierung würde vorliegen.

Cookie Consent mit Real Cookie Banner