22.05.2024

Einsatz von KI im Unternehmen – Anforderungen der deutschen Datenschutzaufsicht

Hintergrund

Am 6. Mai 2024 veröffentlichte die Datenschutzkonferenz (DSK), ein Gremium der deutschen Datenschutzaufsichtsbehörden, die Orientierungshilfe „Künstliche Intelligenz und Datenschutz“. Diese richtet sich an Unternehmen, die KI-Anwendungen einsetzen möchten und soll als Leitfaden für die datenschutzkonforme Auswahl und Nutzung insbesondere von Chatbots basierend auf Large Language Models (LLM) dienen (wie z.B. ChatGPT, Microsoft Copilot etc.). Kurz vor der Veröffentlichung des Dokuments haben die deutschen Datenschutzaufsichtsbehörden bekannt gegeben, dass sie bereit stehen würden, die Aufgabe der nationalen Marktüberwachung für KI-Systeme nach der europäischen KI-Verordnung zu übernehmen. Sollte dies eintreten, gewinnen die Auffassungen der DSK zu Künstlicher Intelligenz nochmal bedeutend an Gewicht.

Künstliche Intelligenz und Datenschutz

Die Orientierungshilfe teilt sich in drei Abschnitte auf: Von der Konzeption und Auswahl von KI-Anwendungen über die Implementierung bis hin zur Nutzung einer KI-Anwendung. Die DSK führt selbst aus, dass es sich nicht um einen abschließenden Anforderungskatalog handeln soll. Insgesamt stellt die Orientierungshilfe viele Elemente dar, die allgemein auch für andere Verarbeitungen von personenbezogenen Daten ohne Künstliche Intelligenz gelten. Hinsichtlich möglicher Rechtsgrundlagen enthält das Papier keine Neuigkeiten, es wird auf das Diskussionspapier des Landesbeauftragten für den Datenschutz und die Informationsfreiheit Baden-Württemberg verwiesen.

Kurz zusammengefasst sind demnach wichtige Prüfungspunkte zum Datenschutz bei der Auswahl und Implementierung einer KI-Anwendung im Unternehmen:

  1. Festlegen der Rechtsgrundlage(n) und Zweckbestimmung und eigene Rechtsgrundlage für Verarbeitung zum KI-Training
  2. Einhalten der Vorgaben der KI-Verordnung
  3. Datenminimierung und Transparenz, insbesondere hinsichtlich der Verwendung der Daten zum KI-Training und des Speicherns der Historie von Benutzereingaben
  4. Verantwortlichkeit mit dem Anbieter vertraglich festlegen und Betroffenenrechte ermöglichen
  5. Datensicherheitsmaßnahmen prüfen und datenschutzfreundliche Voreinstellungen vornehmen
  6. KI-Ergebnisse bezüglich Richtigkeit und möglicher Diskriminierung überprüfen sowie menschliche Letztentscheidung durchführen
  7. Interne Datenschutzinformation, Unternehmensrichtlinien, Schulungen und Dokumentation (meist Datenschutz-Folgenabschätzung erforderlich)
Unser Kommentar

Die DSK gibt mit der Orientierungshilfe eine hilfreiche Checkliste der Vorüberlegungen beim Einsatz von KI-Anwendungen. Zu einigen wichtigen Fragestellungen bei der Auswahl, Implementierung und Nutzung von KI-Anwendungen bezieht die Orientierungshilfe jedoch keine Stellung. In anderen Bereichen sind die Anforderungen aus unserer Sicht durchaus weitreichend und nicht immer praxisgerecht. Bemerkenswert sind insbesondere folgende Punkte:

  • Weites Begriffsverständnis von personenbezogenen Daten: Die DSK gibt zu bedenken, dass gründlich zu prüfen sei, ob personenbezogene Daten verarbeitet werden. Hierbei seien nicht nur die Daten zu berücksichtigen, die in die KI eingegeben werden, sondern auch die Ausgabedaten sowie der Anmelde- und Verarbeitungsprozess der KI-Anwendung. Eine Verarbeitung personenbezogener Daten soll auch aufgrund eines Personenbezugs im KI-Modell vorliegen können. Aufgrund des Zugangs von KI zu weiteren Datenquellen und der inhärenten Funktion, Querbezüge herzustellen, sei nach Ansicht der DSK die Gefahr besonders hoch, dass Personenbezug entsteht oder Informationen zu einer Person erweitert werden.
  • Verantwortlichkeit auch für KI-Training: Die Orientierungshilfe beschreibt, dass ein Unternehmen, das eine vom Anbieter vortrainierte KI-Anwendung einsetzt, bei der Auswahl darauf achten solle, ob die KI-Anwendung datenschutzkonform trainiert wurde. Zudem wird verlangt, dass Verantwortliche sicherstellen, dass sich „Fehler beim Training einer KI-Anwendung nicht auf die Datenverarbeitung in ihrer Verantwortlichkeit auswirken“. Dies weitet die Verantwortlichkeit des KI-einsetzenden Unternehmens sehr aus und es bleibt offen, wie dies überprüft werden soll.
  • Bevorzugung von on-premise Lösungen: Die Datenschutzaufsichtsbehörden halten technisch geschlossene Systeme, bei denen nur ein begrenzter Kreis an Personen Zugriff auf die Anwendung hat und die Daten nicht vom Anbieter für das weitere Training verwendet werden, für vorzugswürdig. Dies beschreibt insbesondere sog. „on-premise Lösungen“, die jedoch in der Praxis seltener gewählt werden.
  • Vermeidung automatisierter Entscheidungsfindung durch KI: Nimmt die KI automatisierte Entscheidungen (einschließlich Profiling) vor, soll der Betroffene über die involvierte Logik sowie die Tragweite und mögliche Auswirkungen informiert werden. Dies gibt die in der DSGVO beschriebenen Anforderungen wieder (Art. 13 Abs. 2 f DSGVO). Nach Ansicht der DSK soll dies allerdings mindestens eine Erläuterung der Methode der Datenverarbeitung bezogen auf die Funktionsweise des Programmablaufs der KI-Anwendung umfassen. Diese Anforderung wird aufgrund der Komplexität von KI-Anwendungen kaum durch die einsetzenden Unternehmen selbst zu erfüllen sein bzw. umfangreiches Informationsmaterial des KI-Anbieters bedürfen. Aufgrund der hohen Vorgaben sollte möglichst ausgeschlossen werden, dass eine eingesetzte KI-Anwendung automatisierte Entscheidungen im Sinne der DSGVO trifft.
  • Keine Privataccounts für Beschäftigte: Für die berufliche Nutzung von KI-Anwendungen sollen Beschäftigten Geräte und Accounts zur Verfügung gestellt werden. Beschäftigte sollen demnach nicht verpflichtet werden, frei verfügbare KI-Anwendungen mit Privataccounts zu verwenden. Die DSK geht noch weiter und fordert, dass nur Funktions-E-Mail-Adressen des Unternehmens für die Accounts angegeben werden und damit keine Namen der Beschäftigten enthalten sein sollen, soweit die Anwendung nicht auf eigenen Servern betrieben wird.
  • Keine Erleichterungen bei Umsetzung von Betroffenenrechten: Ein Problemfeld bei KI-Anwendungen ist die Umsetzung von Betroffenenrechten, wie Löschungen, Auskunft und Berichtigungen, insbesondere wenn eingegebene personenbezogene Daten zum KI-Training verwendet wurden. Hierzu gibt die DSK keine Hilfestellung, sondern es verbleibt bei den allgemeinen strengen Vorgaben. Ausdrücklich wird dargestellt, dass ein nachgeschalteter Filter, der unerwünschte Ausgaben unterdrückt, keine datenschutzkonforme Löschung darstelle. Filtertechnologien könnten aber „einen Beitrag dazu leisten“ bestimmte Ausgaben zu vermeiden.
  • Prüfung der datenschutzrechtlichen Rollen: Genaue Prüfung erfordert die Frage, welche Rollen und Verantwortlichkeiten der KI-Anbieter und das einsetzende Unternehmen einnehmen. Dies ist im Einzelfall zu bestimmen. Die DSK betont, dass eine gemeinsame Verantwortlichkeit vorliegen kann, wenn eine KI-Anwendung mit unterschiedlichen Datensätzen gespeist/trainiert wird. Dabei ist es nicht erforderlich, dass tatsächlich jede beteiligte Stellen Zugang zu den verarbeiteten Daten hat.
  • Datenschutz-Folgenabschätzung (DSFA) vielfach erforderlich: Es sei nach Ansicht der DSK „vielfach der Fall“, dass vor dem Einsatz einer KI-Anwendung eine Datenschutz-Folgenabschätzung erforderlich sei. Insofern sollten Unternehmen vor dem Einsatz eine Vorabprüfung durchführen und ggf. Informationen vom KI-Anbieter zur Funktionsweise des Systems anfragen, um eine Risikobewertung und – soweit nötig – eine DSFA vornehmen zu können.
Autor/in
Laura Hoffmann, LL.M. (Dresden/London)

Laura Hoffmann, LL.M. (Dresden/London)
Senior Associate
Frankfurt a.M.
laura.hoffmann@luther-lawfirm.com
+49 69 27229 24684