20.06.2023
Das Europäische Parlament hat sich am 14. Juni 2023 auf eine gemeinsame Position zur KI-Verordnung geeinigt. Damit kann der Trilog beginnen, in dem die EU-Kommission, der Rat und das Europäische Parlament eine finale Fassung der KI-Verordnung verhandeln wollen. Damit könnte das weltweit erste umfassende gesetzliche Regelwerk zur Verwendung von künstlicher Intelligenz Ende 2023 verabschiedet werden.
In den vergangenen Monaten hat das Europäische Parlament darum gerungen, eine einheitliche Position zur KI-Verordnung zu erarbeiten. Wesentliche Streitpunkte waren insbesondere die Frage, ob und inwieweit Künstliche Intelligenz (KI) eingesetzt werden darf, um Personen mit Hilfe einer biometrischen Fernidentifizierung in Echtzeit zu identifizieren. Praktisch wird sich dieser Anwendungsfall bei der Frage relevant, ob die Sicherheitsbehörden diese Technologie einsetzen dürfen, um z. B. bei einer Videoüberwachung in öffentlichen Räumen Personen zu identifizieren, gegen die ermittelt wird. Zu diesem Zweck identifiziert ein Algorithmus die erfassten Gesichter und gleicht diese mit dem Bestand einer Datenbank ab. Am Berliner Bahnhof Südkreuz lief hierzu bereits ein Modellversuch, in dem diese Technologie erprobt wurde. Das konservative Lager im Europäischen Parlament wollte diese Technologie jedenfalls in bestimmten Fällen zur Aufklärung schwerer Straftaten zulassen, während das eher linke Lager diese Technologie verbieten möchte. Das Europäische Parlament hatte zwischenzeitlich eine gemeinsame Position erlangt, die kurz vor der Sitzung am Mittwoch durch einen Änderungsantrag des konservativen Lagers noch ins Wanken gebracht wurde. Nunmehr hat sich das Europäische Parlament jedoch darauf geeinigt, dass die biometrische Fernidentifizierung in Echtzeit verboten werden soll. Unter engen Voraussetzungen soll es aber möglich sein, die Aufzeichnung im Nachhinein mit Hilfe von KI zu analysieren.
Ferner hat sich das Europäische Parlament damit beschäftigt, in welchem Rahmen der Einsatz von KI zukünftig grds. erfolgen soll. Der ursprünglich von der EU-Kommission erstellte Entwurf der KI-Verordnung sieht vor, dass KI-Systeme in vier Kategorien eingestuft werden. An die Klassifizierung sind dann weitere Rechtsfolgen geknüpft, die Vorgaben zur bloßen Kenntlichmachung des Einsatzes von KI, der Zertifizierung sowie in bestimmten Fällen bis hin zu einem grds. Verbot enthalten. Verboten sind KI-Systeme, die ein unannehmbares Risiko darstellen. Auf der zweiten Stufen stehen KI-Systeme, die ein hohes Risiko mit sich bringen. Auf der dritten Stufe sind KI-Systeme, von denen ein eingeschränktes Risiko ausgeht. Schließlich erfasst die vierte Stufe KI-Systeme, die ein minimales oder gar kein Risiko mit sich bringen. Die meisten KI-Systeme dürften, jedenfalls nach derzeitiger Definition in Art. 6 des Entwurfs des Europäischen Parlaments, in der Praxis wohl als Hochrisiko KI-Systeme eingestuft werden.
Das Europäische Parlament hat sich nun dahingehend positioniert, dass KI-Systeme zur Emotionserkennung in den Bereichen Strafverfolgung, Bildung, Grenzkontrolle und am Arbeitsplatz als verbotene KI eingestuft werden. Ebenso sollen KI-Systeme für das sog. „predicitive Policing“ verboten werden.
Weiter hat sich das Europäische Parlament darauf geeinigt, dass Betreiber von Hochrisiko KI-Systemen vor deren Einsatz eine Folgenabschätzung durchführen sollen. Das Instrument ist der aus dem Datenschutzrecht stammenden Datenschutzfolgenabschätzung entlehnt und besagt, dass im Vorfeld die Auswirkungen der zukünftigen Einsatzes der KI zu bewerten sind. Ziel ist es, dass die Betreiber durch die Folgenabschätzung selbst Maßnahmen ergreifen, um das von dem KI-System ausgehende Risiko zu reduzieren. Grundsätzlich ist dieses Vorgehen sinnvoll. Allerdings zeigt sich bei der Datenschutzfolgenabschätzung, dass das Vorgehen das gewünschte Ziel nicht erreicht, wenn jeder Verantwortliche verpflichtet ist, für bestimmte, standardisierte Verarbeitungen (z. B. Microsoft Office 365) eine eigene Datenschutzfolgenabschätzung durchführt. Dies führt zu einem unnötigen Dokumentationsaufwand in den Unternehmen. Sinnvoller erscheint es, in diesen Fällen zentral eine Folgenabschätzung durchzuführen und die zu ergreifenden Maßnahmen zentral vorzuschlagen. Das Einzelne Unternehmen könnte sich dann darauf beschränken, die Folgenabschätzung lediglich für Abweichungen vom Standard zu ergänzen.
Wichtig ist zudem, dass das Europäische Parlament einen Vorschlag eingebracht hat, wie sog. Foundation Models zukünftig reguliert werden sollen. Dabei geht es um die Regulierung von KI-Modellen, die für verschiedene Zwecke eingesetzt werden können. Aktuell prominentestes Beispiel ist GPT, die Grundlage für ChatGPT. Der Vorschlag des Europäischen Parlaments sieht vor, dass die Anbieter von Foundations Models bestimmte, aber nicht alle Pflichten erfüllen müssen, die auch Anbieter von Hochrisiko KI-Systemen treffen.
Im Anschluss an die Sitzung des Europäischen Parlaments haben unmittelbar die Trilog-Verhandlungen begonnen. Das erste Treffen war unmittelbar für den Abend des 14. Juni angesetzt worden, wobei inhaltliche Verhandlungen noch nicht aufgenommen wurden. Es wird erwartet, dass insbesondere die Fragen rund um den Einsatz von KI-Systemen zur biometrischen Echtzeitüberwachung auch in den Trilog-Verhandlungen umfassend diskutiert werden wird. Das gleiche dürfte für die Regelung zu den Foundations Models gelten.
Kritische Punkte
Das EU Vorhaben, weltweit die erste Regulierung für künstliche Intelligenz zu schaffen, ist ambitioniert. Vorbild ist hierbei sicherlich die DSGVO, die mittlerweile als Vorbild für eine Datenschutzregulierung auf der ganzen Welt geworden ist. Ob dieser Erfolg auch mit der KI-Verordnung einhergehen wird, darf allerdings bezweifelt werden.
Es bleibt abzuwarten, ob und auf welche gemeinsame Position sich die Beteiligten im Rahmen des Trilog einigen werden.
Dr. Kuuya Josef Chibanguza, LL.B.
Partner
Hannover
kuuya.chibanguza@luther-lawfirm.com
+49 511 5458 16837
Christian Kuß, LL.M.
Partner
Köln
christian.kuss@luther-lawfirm.com
+49 221 9937 25686