Skip to main content

AI Act – Entwurf einer europäischen Regelung bezüglich Künstlicher Intelligenz

Die Telekommunikationsminister der Mitgliedstaaten der Europäischen Union haben sich nun auf die Regeln in Bezug auf die Künstlicher Intelligenz (KI) verständigt und die Grundzüge des sog. „AI Acts“ festgelegt. Der Entwurf des AI Acts wurde bereits 2021 von der Europäischen Kommission vorbereitet und im Laufe der Zeit auch weiter angepasst und verändert. Da die grundlegende Einigung jetzt erzielt wurde, kommt der Entwurf nun vor das Europäische Parlament. Wir haben uns diesen Entwurf angeschaut und das Wichtigste für Sie zusammengefasst.

Worum geht es?

KI beeinflusst viele Bereiche unseres Lebens: KI-Anwendungen beeinflussen, welche Informationen Menschen online sehen, indem sie vorhersagen, welche Inhalte einen bestimmten Menschen interessieren, sie können Daten von Gesichtern oder Tonlagen erfassen und analysieren, um Gesetze durchzusetzen – oder Werbung zu personalisieren, sie werden zur Diagnose und Behandlung von verschiedenen Krankheiten wie etwa Krebs verwendet.

Grundsätzlich geht die EU – also eigentlich die Europäische Kommission, die das AI Act initiiert hat – davon aus, dass die Künstliche Intelligenz eine wichtige und positive Entwicklung sowohl für die Gesellschaft als auch für die Institutionen und Unternehmen darstellt. Gleichzeitig erkennt die Europäische Kommission die damit verbundenen Risiken, insb. solche für die Sicherheit von Nutzerinnen und Nutzern und für die Menschenrechte, die sie mithilfe des neuen Gesetzes adressieren möchte.

Warum ist eine Regelung (aus der Perspektive der Europäischen Kommission) notwendig?

Künstliche Intelligenz ist insbesondere dafür bekannt, dass ihre Funktionsweise bzw. ihre Entscheidungen unabhängig und unvorhersehbar anhand einer großen Datenmenge getroffen werden. KI ist kompliziert und intransparent, weswegen sie aus der Sicht der Europäischen Kommission dringend einer rechtlichen Regelung bedarf. Es sind die Bereiche des Menschenlebens, die einerseits von der Schnelligkeit und der Menge herangezogener Daten bei der Entscheidungsfindung profitieren (wie etwa Medizin oder Strafverfolgung), andererseits aber – gerade aufgrund der sehr hohen Datenmenge und der regelmäßig fehlenden Transparenz dieser Entscheidungsfindung – Menschenrechte gefährden kann.

Der Weg, für den sich die Europäische Kommission dabei entschieden hat, ist die Regelung der Anwendungen der Technologie, nicht die Regelung der Technologie als solchen. Hier wird der Europäische Gesetzgeber dem bereits für die DSGVO gewählten und dort verankerten Prinzip der Technologieneutralität folgen, damit ggf. auch künftige Entwicklungen von der neu zu schaffenden Regelung zumindest im Ansatz abgedeckt sind. Dieses Prinzip wird zum einen bei der Definition der KI umgesetzt, zum anderen in der Bestimmung der sog. „Hochrisiko-KI-Systeme“.

Was sieht der Entwurf vor?

Künstliche Intelligenz als solche wird in dem Entwurf nicht definiert, dafür aber die sog. KI-Systeme: es handelt sich hierbei um „Software, die mit einer oder mehreren der in Anhang I aufgeführten Techniken und Konzepte entwickelt worden ist und im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren“. Alle möglichen KI-Systeme sowie deren Nutzung werden in dem Entwurf in drei Hauptkategorien unterteilt: verbotene Anwendungen, Hochrisiko-KI-Systeme und „übrige“ KI-Systeme.

Verboten werden demnach solche KI-Systeme, die – vereinfacht gesagt – den Werten der Europäischen Union widersprechen. Darunter sind beispielsweise solche KI-Systeme, die Techniken der unterschwelligen Beeinflussung außerhalb des Bewusstseins einer Person einsetzen, um ihr Verhalten wesentlich zu beeinflussen, oder solche, die auf die Bewertung oder Klassifizierung der Vertrauenswürdigkeit natürlicher Personen abzielen (die allerdings nur insoweit verboten werden soll als sie von Behörden eingesetzt werden, Privatpersonen und Privatunternehmen sind bislang von diesem Verbot nicht umfasst).

Hochrisiko-KI-Systeme umfassen dem Entwurf nach solche KI-Systeme, die wesentliche Lebensbereiche eines Menschen beeinflussen (können) bzw. erhebliche schädliche Auswirkungen auf die Gesundheit, die Sicherheit und die Grundrechte von Menschen haben, beispielsweise biometrische Identifizierung und Kategorisierung natürlicher Personen ermöglichen, zur Verwaltung und zum Betrieb kritischer Infrastrukturen (Straßenverkehr, Wasser-, Gas-, Wärme- und Stromversorgung) eingesetzt werden oder für die Einstellung oder Auswahl natürlicher Personen verwendet werden sollen. Ebenfalls dazu zählen die Sicherheitskomponente von bestimmten regulierten Produkten. Eine Liste der Hochrisiko-KI-Systemen lässt sich in Anhängen II und III zum Entwurf finden (s. unten).

Hochrisiko-KI-Systeme unterliegen dabei Anforderungen in Bezug auf das Inverkehrbringen und die Nutzung dieser Anwendungen. Dazu gehören etwa die Einrichtung eines Risikomanagementsystems als eines kontinuierlichen iterativen Prozesses während des gesamten Lebenszyklus eines KI-Systems, der Ermittlung, Analyse und Bewertung entstehender Risiken sowie Ergreifung geeigneter Maßnahmen umfasst und regelmäßig und systematisch aktualisiert wird; die Sicherstellung der Qualität eingesetzter Training-, Validierungs- und Testdaten; Erstellung der technischen Dokumentation; und vieles mehr. Auch besondere Anforderungen an Protokollierung, Transparenz und Bereitstellung von Informationen für Nutzerinnen und Nutzer sind im Entwurf vorgesehen sowie die Notwendigkeit einer menschlichen Aufsicht über die Verwendung von KI-Systemen, damit die Risiken für die Gesundheit, die Sicherheit und die Grundrechte natürlicher Personen minimiert werden (zumindest im Idealfall).

Entwurf und Europäische Kommission

Der Entwurf ist nicht lediglich darauf gerichtet, besondere Anforderungen an KI-Systeme zu bestimmen, sondern versucht auch europäische Standorte der KI-Entwicklung zu schaffen. Die Innovationsförderung soll dem Entwurf nach einerseits in der Schaffung sicherer europäischer Umgebungen für Entwicklung, Erprobung und Validierung innovativer KI-Systeme münden, sog. KI-Reallabore; andererseits sollen die Mitgliedstaaten den Kleinanbietern und Startups zusätzliche Unterstützung gewähren, indem ihnen beispielsweise ein „bevorzugter“ Zugang zu den KI-Reallaboren eingeräumt oder die Gebühren der Konformitätsbewertung marktanteilentsprechend gesenkt werden.

Was ist zu tun?

Noch ist der Entwurf kein Gesetz geworden, insofern ist keine Handlung notwendig. Unternehmen oder Forschungseinrichtungen, die sich mit den Anwendungen der Künstlichen Intelligenz beschäftigen, können allerdings jetzt schon anfangen darauf zu achten, dass sie in keine „verbotenen“ Anwendungsbereiche kommen, die verwendeten Daten den Qualitätsstandards und den bereits bestehenden Anforderungen an den Datenschutz entsprechen (etwa die Anonymisierung erweitern bzw. Rechtsgrundlagen der Datenverarbeitung überprüfen) und die Transparenz in der Nutzung der Anwendung gewährt wird. Der Entwurf klassifiziert die KI-Systeme nach deren bestimmungsgemäßen Verwendung, nicht nach der grundlegenden Technologie und deren Möglichkeiten, sodass abzuwarten bleibt, wie genau die Konformität überprüft und die Einsatzgebiete bestimmt werden.

Wir bleiben dran. Sollten Sie spezifische Fragen diesbezüglich haben, melden Sie sich gerne bei uns!

Die deutsche Fassung des AI Acts finden Sie hier, englische (so gesehen „ursprüngliche“) hier.

Text: Olga Kunkel

Sie haben Fragen zu diesem Beitrag? Dann wenden Sie sich gern an olga.kunkel@itwirtschaft.de.

Kontakt
close slider

Kontakt

Mittelstand 4.0-Kompetenzzentrum IT-Wirtschaft

Hauptstadtbüro Berlin:
Haus der Bundespressekonferenz
Schiffbauerdamm 40
10117 Berlin

T +49 30 22605 006
kontakt@itwirtschaft.de

Kontaktformular

Newsletternameldung