Künstliche Intelligenz (KI) ist längst nicht mehr Zukunftsvision, sondern Teil des Alltags: in Suchmaschinen, E-Mail-Programmen, Unternehmenssoftware oder im Kundenservice. Doch mit der Leistungsfähigkeit moderner KI-Systeme steigen auch die datenschutzrechtlichen Risiken.
KI-Systeme „lernen“ aus Daten. Je mehr Daten, desto besser die Ergebnisse, aber auch desto größer die Risiken. Viele KI-Anwendungen verarbeiten personenbezogene Daten, teilweise auch sensible Informationen wie Gesundheitsdaten oder biometrische Merkmale.
Typische Konfliktfelder
Der Spagat zwischen technischer Innovation und rechtlicher Kontrolle ist daher die zentrale Herausforderung des modernen Datenschutzrechts.
Rechtmäßigkeit der Datenverarbeitung durch KI
Sobald personenbezogene Daten mithilfe von KI-Anwendungen verarbeitet werden, greifen die Vorgaben der DSGVO uneingeschränkt. Das bedeutet: Jede Verarbeitung personenbezogener Daten braucht eine Rechtsgrundlage gemäß Art. 6 DSGVO. Regelmäßig sind folgende Rechtsgrundlagen tauglich:
Die Rechtsgrundlage muss für jede einzelne Verarbeitungstätigkeit separat geprüft. Insbesondere ist auf die Zweckbindung (Art. 5 Abs. 1 lit. b DSGVO) der erhobenen Daten zu achten.
Hinweis: Für besonders sensible Daten, z. B. Gesundheitsdaten, biometrische Daten, gelten die strengeren Voraussetzungen des Art. 9 DSGVO.
Automatisierte Entscheidung i. S. d. Art. 22 DSGVO
Ein zentrales Datenschutzthema ist automatisierte Entscheidungsfindung, etwa wenn ein Algorithmus über eine Kreditvergabe oder Bewerbung entscheidet. Betroffene dürfen grundsätzlich keiner ausschließlich automatisierten Entscheidung, d. h. ohne menschliche Nachprüfung, unterworfen werden, die rechtliche Wirkung entfaltet oder sie erheblich beeinträchtigt, vgl. Art. 22 Abs. 1 DSGVO.
Nur in drei gesetzlich geregelten Fällen sind Ausnahmen möglich, vgl. Art. 22 Abs. 2 DSGVO, und zwar dann, wenn die Entscheidung:
In jedem Fall müssen Transparenz, menschliche Kontrolle und Widerspruchsmöglichkeiten gewährleistet sein.
Transparenz und Erklärbarkeit von KI-Systemen („Black-Box“-Problem)
Ein Grundprinzip der DSGVO ist Transparenz, vgl. Art. 5 Abs. 1 lit. a und Art. 12 DSGVO. KI-Entscheidungen müssen daher nachvollziehbar und erklärbar sein, auch wenn das technisch komplex ist. Unternehmen müssen sicherstellen, dass:
Besonders wichtig ist die „Accountability“ (Rechenschaftspflicht, Art. 5 Abs. 2 DSGVO). Das Unternehmen muss jederzeit belegen können, dass der Einsatz der KI DSGVO-konform ist. Hinsichtlich des „Black-Box“-Problems wird auf den Artikel Künstliche Intelligenz (KI) sowie die darin enthaltenen, weiterführenden Links verwiesen.
Datenschutz-Folgenabschätzung (DSFA)
Bei Hochrisiko-KI-Systemen ist regelmäßig eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO erforderlich. Das gilt insbesondere, wenn:
Hintergrund: Die Datenschutzkonferenz (DSK) veröffentlichte im Jahr 2018 ein Kurzpapier. Darin werden die gesetzlichen Vorgaben des Art. 35 Abs. 1 bis 3 DSGVO ergänzt. Danach ist die Erforderlichkeit einer DSFA vorgesehen, wenn die geplante Datenverarbeitung bestimmte Kriterien (wie die drei oben genannten) erfüllt. Auch die sog. Positiv-/Muss-Listen i. S. d. Art. 35 Abs. 4 Satz 1 DSGVO der Datenschutzaufsichtsbehörden der Ländern orientieren sich an diese „Musterliste“ der DSK.
Handlungsempfehlung
a) Kurzfristig
b) Mittelfristig
c) Langfristig
Künstliche Intelligenz und Datenschutz sind keine zwei getrennte Bereiche; sie müssen zusammengedacht und geregelt werden. Nur wer die Balance zwischen technischer Innovation und rechtlicher Kontrolle wahrt, kann KI ethisch, sicher und rechtskonform einsetzen. Die Zukunft gehört jenen Unternehmen, die Verantwortung und Transparenz zu ihren Grundsätzen machen.
Unsere Leistungen im Bereich Datenschutz und Künstliche Intelligenz