Open/Close Menu Wie Anwälte neue Chancen nutzen
KI-Strategie EU

Überschattet von Shutdowns im privaten und öffentlichen Sektor hat die Bundesregierung im Juni diesen Jahres zu keinem geringeren Thema Stellung genommen als der „letzten Erfindung, die der Mensch zu machen hat.“[1] Zuvor hatte die Europäische Kommission das Weißbuch zur Künstlichen Intelligenz veröffentlicht, um darin ein europäisches Konzept für Exzellenz und Vertrauen bei der KI-Entwicklung vorzustellen. In diesem Beitrag lesen Sie die wichtigsten Eckpunkte der KI-Strategie der EU.

Weißbuch Künstliche Intelligenz

Das Weißbuch[2] der EU-Kommission äußert sich zu den Auswirkungen von KI. Es untersucht dabei die regulatorischen Parameter, die eine Balance zwischen der Nutzung von Potenzialen und der Abwehr der damit einhergehenden Risiken schaffen sollen.

Exzellenz, Vertrauen, Sicherheit – diese Werte sollen dem gemeinsamen europäischen KI-Ökosystem einen Rahmen geben. Der Mensch soll KI nutzen, dabei aber stets zum Gemeinwohl. Um im KI-Wettbewerb nicht ins Hintertreffen zu geraten, lautet die Strategie, die Entwicklung selbst voranzutreiben und „Europa an die Spitze der weltweiten KI-Forschung und Anwendung“ zu befördern.[3] Das aber nach den Wertmaßstäben der EU – deshalb solle der Mensch im Zentrum stehen. Garantie hierfür sollen gesetzlich vorgesehene Anforderungen für den Einsatz von KI im privaten wie im öffentlichen Sektor sein. Damit die Anforderungen an KI-Systeme tatsächlich durchgesetzt werden, soll ein Bewertungsverfahren entwickelt werden. Systeme mit hohen Risiken werden in diesem Verfahren auf ihre Konformität mit dem EU-Recht überprüft. All die Maßstäbe sollen in der Marke „AI Made in Europe“ aufgehen, die für eine „menschenzentrierte und nachvollziehbare Entwicklung und Anwendung von KI-Systemen auf der Basis eines geeigneten Rechtsrahmens“ steht.

Die Stellungnahme der Bundesregierung zum KI-Weißbuch

Angesichts der Brisanz des Themas haben gleich fünf Bundesministerien ihre Kräfte vereint, um den Standpunkt Deutschlands im Konsultationsverfahren darzulegen. Dieser äußert sich grundsätzlich anerkennend gegenüber den Bestrebungen der Kommission.

Ganz nach dem Anspruch einer Wirtschaftsunion sollen „exzellente Forschungs- und Transferbedingungen“ geschaffen, „in Schlüsselinitiativen der Künstlichen Intelligenz“ investiert und der Wissensaustausch zwischen KI-Expertinnen und Experten angetrieben werden. Ein Begriff schleicht sich in nahezu jedes Statement: Vertrauen. Die Ansätze, wie dieses Vertrauen erreicht werden kann, sind vielfältig. Die Technologie soll transparent und nachvollziehbar bleiben. In kritischen Anwendungsfragen soll dem Menschen die letzte Entscheidung überlassen werden. Hier stellt sich die Frage, ob nicht gerade bei komplexen und folgenschweren Entscheidungen der Reiz der KI gerade in ihrer Überlegenheit gegenüber menschlichen Fähigkeiten besteht. Hier wird der Spagat zwischen „Sicherheit“ und „Entwicklungsoffenheit“ versucht.

Markenzeichen „AI Made in Europe“

Ein „Ökosystem für Exzellenz“ braucht innovative Forschung, Wettbewerbsfähigkeit der Unternehmen, eine moderne Verwaltung sowie die digitale Kompetenz der Menschen. So sollen gesellschaftsrelevante Zukunftsfragen wie Klimaschutz, europäischer Green Deal oder die UN-Nachhaltigkeitsziele erreicht werden.

Angesichts der Konkurrenz aus China und den USA ist technologische Exzellenz nicht genug. Hier hat Europa u. a. aufgrund seiner Skepsis gegenüber der ethischen Vertretbarkeit den Anschluss verloren. Aus der Einsicht, dass KI im Zweifel importiert wird, und, um das Rennen nicht ganz aufzugeben, sollen europäische Wertmaßstäbe zum Markenzeichen von Europas KI gemacht werden. Ein ausgeklügelter Rechtsrahmen soll Sicherheit, Nachvollziehbarkeit und Wertekonformität der KI-Fortschritte gewährleisten. Datenschutz und Grundrechte stehen im Zentrum dieses Rahmens. Transparenzanforderungen und Kontrollstrukturen dienen der Überprüfung der Systeme.

Vertrauen in die entwickelten KI-Systeme ist notwendig, damit die Technologie ausreichend Akzeptanz findet und in der Gesellschaft genutzt wird. Nur unter Beteiligung der Zivilgesellschaft können Schwächen aufgedeckt werden und neue Innovationen entstehen. Die EU-Kommission hat unionsweit harmonisierte Grundsätze für vertrauenswürdige KI vorgeschlagen. Für das erforderliche Vertrauen muss die Technologie transparent und nachvollziehbar sein. Die verbindliche Dokumentation und Aufbewahrung von Daten soll außerdem die Überwachung und Durchsetzung durch die Aufsichtsbehörden ermöglichen. Weitere Merkmale sind die Nicht-Diskriminierung oder die Möglichkeit der menschlichen Letztentscheidung. KI-Systeme sollen Einwirkungsmöglichkeiten aufweisen, in denen ein Mensch das System außer Kraft setzen oder dessen Funktionsweise ändern können soll. Trainingsdaten sind ein entscheidender Faktor bei selbstlernenden Systemen, um die Gefahr von Diskriminierung zu minimieren. Die Daten müssen inhaltlich korrekt, aktuell, repräsentativ und vollständig sein. Diese Problematik tritt beispielsweise bei sogenannten Pre-Policing-Systemen auf, wie Sie im Beitrag „Vortragsreihe Legal Tech: Mit Algorithmen Kriminalität prognostizieren?“ lesen können.

Bei der Frage nach der Regulierung von KI-Anwendungen hat die Kommission vorgeschlagen, KI-Systeme mit einem „hohen Risiko“ zu fokussieren. Demgegenüber schlägt die Bundesregierung vor, Risiken im Anwendungskontext (wie z. B. Gesundheit, Vermögen, demokratische Prozesse, Umwelt, soziale Teilhabe) zu erfassen und in Bezug auf Gemeinwohlinteressen, individuellen Nutzen und Innovationsbedarf abgestuft zu betrachten.

Herausforderungen an Recht und Justiz bei der KI-Strategie

Die Bundesregierung weist darauf hin, dass der bestehende Rechtsrahmen aus Grundrechten, Verbraucherschutzvorschriften und Produktsicherheits- und Haftungsregeln spezifische Risiken durch KI-Anwendungen noch nicht ausreichend berücksichtigt. Die Kommission hat selbst im Weißbuch erwogen, dass spezifisch auf KI ausgerichtete Rechtsvorschriften erforderlich sein werden. Die Vernetzung der neuen digitalen Produkte, ihre Autonomie, Datenabhängigkeit und Komplexität fordern den Rechtsrahmen heraus. Das zeigt sich etwa beim autonomen Fahren: Für Haftungsfragen bei Unfällen hält das bestehende Verkehrsrecht nur begrenzt Antworten bereit.

Aus demselben Grund muss auch das Produktsicherheitsrecht für KI erweitert werden. Die Beurteilung von Produktrisiken bezieht zwar die vorhersehbare Verwendung des Produkts mit ein. Diese Beurteilung kann jedoch bei KI-Systemen zu kurz greifen, da sie sich durch maschinelle Lernverfahren während ihrer Anwendung weiterentwickeln. Mitunter können sich nach einiger Zeit gänzlich neue Einsatzmöglichkeiten für ein System zeigen, die vorher gar nicht bedacht wurden. Es stellt sich die Frage, ob es einen „Produktfehler“ bei Inverkehrbringen darstellt, wenn ein KI-Produkt sich nach Ingebrauchnahme derart weiterentwickelt, dass seine Aktionen vom Hersteller so nicht beabsichtigt und vom Nutzer nicht erwartet wurden. Es sind also nicht nur Anforderungen an Hersteller, sondern auch an Betreiber der KI-Systeme zu stellen.

Zu den Fragen der Betreiberhaftung hat die Expert Group on Liability for New Technology (New Technologies Formation) Haftungsgrundsätze erarbeitet. Bei einem erhöhten Schädigungsrisiko sollen Betreiber von KI-Technologie verschuldensunabhängig haften; ohne ein solches Risiko richtet sich die Haftung hingegen danach, ob Betriebs-, Auswahl-, Überwachungs- oder Wartungspflichten eingehalten wurden. Schäden von Technologien, die autonom handeln, sollen dem Betreiber zurechenbar sein, sodass es keiner eigenen Rechtspersönlichkeit autonomer Systeme bedarf.

Wo bleibt Europa im Rennen zur Ultra-AI?

Selbständige Technologien stellen dem Recht zweifellos neue Aufgaben. Zum einen muss den Spezifika sich selbst fortentwickelnder KI-Systeme begegnet werden. Hersteller und Betreiber der Technologie müssen mit umfangreichen Sorgfaltsmaßstäben rechnen. Zum anderen dürfen die Anforderungen und Haftungsrisiken nicht derart gigantisch ausfallen, dass sie Innovationen im Keim ersticken. Dieser Kompromiss wird eine umso größere Herausforderung, je mehr die Wertmaßstäbe einer „AI Made in Europe“ verbindlich in ein Regulierungskonzept aufgenommen werden. Die Ansprüche an Transparenz, Nachvollziehbarkeit und Integration der Zivilgesellschaft bringen Europa vielleicht nicht auf das Siegerpodest bei der Entwicklung der nächsten Super-KI. Aber sie halten den Menschen im Zentrum des Technologiefortschritts.

Die KI-Strategie der EU und Deutschlands im Überblick:

  • Europa hat sich dazu entschlossen, in den Wettbewerb um KI-Entwicklungen einzutreten und will hierbei mit den eigenen Wertmaßstäben Exzellenz, Vertrauen und Sicherheit einer Marke AI Made in Europe hervorstechen.
  • Vertrauen in die europäischen KI-Systeme ist ein zentraler Bestandteil, damit sie in der Gesellschaft akzeptiert wird. Deshalb soll die Technologie transparent und nachvollziehbar sein, was etwa durch eine verbindliche Dokumentation und Aufbewahrung von Daten erreicht werden soll.
  • Wesentliche Elemente des Produktsicherheits- und Haftungsrechts müssen für KI-Systeme neugedacht werden. Das zeigt sich insbesondere an nötigen Vorgaben für KI-Betreiber, weil die Haftung der Hersteller aufgrund der Lernfähigkeit der Systeme nicht mehr ausreicht.

[1] So qualifizierte I. J. Good 1965 die erste ultraintelligente Maschine in seinen „Speculations Concerning the First Ultraintelligent Machine“.

[2] eine Sammlung von Vorschlägen zum Vorgehen in einem bestimmten Bereich.

[3] So das Statement von Anja Karliczek, Bundesministerin für Bildung und Forschung.

Foto: Adobe.Stock/©finecki