der AI Act der EU – der Versuch einer Regulierung zum Nutzen der Menschen in Europa

Die KI Verordnung ist der erste grundlegende Rechtsakt der EU zur Einführung von KI Systemen, dem Verbot bestimmter Praktiken, der Definition von Anforderungen an Hochrisiko-KI-Systeme sowie harmonisierte Transparenzsysteme. Zwar sieht der AI Act auch vor, dass das Urheberrecht beachtet werden soll, regelt aber bisher nicht die Frage der angemessenen Vergütung für die Nutzung der urheberechtlich geschützten Werke. Nunmehr ist der Entwurf weiter beraten worden. Er bedarf noch der Zustimmung des Parlamentes und des Rates der Mitgliedstaaten.




der Anwendungsbereich des AI Actes

Die EU hat den AI Act weiter beraten, nunmehr bedarf er noch der Zustimmung des Parlamentes und des Rates der Mitgliedstaaten.

Die Verordnung soll gemäß Art. 2 für Anbieter gelten, welche KI-Systeme in der Union in Verkehr bringen oder in Betrieb nehmen oder in Europa genutzt werden, unabhängig davon, ob sie ihren Sitz in oder außerhalb der EU haben.

Des Weiteren gilt diese VO für Nutzer von KI Systemen, die sich innerhalb der EU befinden.

die Auswirkung auf Drittländer

Zudem gilt sie auch für Anbieter und Nutzer von KI-Systemen, die in einem Drittland niedergelassen oder ansässig sind, wenn das vom System hervorgebrachte Ergebnis in der Union verwendet wird.

Damit wird ein sehr umfangreicher Anwendungsbereich bezüglich Anbieter und Nutzer sowie die Nutzung der Ergebnisse definiert. Dies entspricht der Rechtsprechung des EuGH auch in anderen Gebieten.

 


Verbotene Praktiken im Bereich der KI / Beschränkungen bestimmter Praktiken

Die Verordnung verbietet in Art. 5 ausdrücklich das Inverkehrbringen, die Inbetriebnahme oder Verwendung von KI-Techniken der unterschwelligen Beeinflussung oder KI-Systeme, die eine Schwäche oder Schutzbedürftigkeit einer Gruppe von Menschen aufgrund des Alters, der körperlichen oder geistigen Behinderung ausnutzen, wodurch einer Person dieser Gruppe ein physischer oder psychischer Schaden zugefügt wird.

keine KI für social-scoring

Aber auch solche KI-Systeme, welche die Vertrauenswürdigkeit einer Person aufgrund ihres sozialen Verhaltens bewerten, sind unzulässig.  Dies gilt insbesondere, soweit es dazu führt, dass bestimmte Gruppen schlechter gestellt werden aufgrund von Daten, die in einem anderen Zusammenhang erhoben wurden oder die Benachteiligungen in ihrer Tragweite ungerechtfertigt oder unverhältnismäßig sind.

Verboten sind KI-Systeme zum Social-Scoring. Dies betrifft also die Bewertung von Menschen aufgrund ihres sozialen Verhaltens, wahllose Gesichtserfassung und das Anlegen von Datenbanken für die Speicherung solcher Bilder.

Einschränkung der Verwendung biozentrischer Echtheut-Fernidentifizierungssysteme

Die Verwendung biozentrischer Echtheit-Fernidentifizierungssysteme ist gemäß Art. 5 II in öffentlich zugänglichen Räumen ebenfalls unzulässig. Dies findet Anwendung, soweit sie nicht zur Suche nach potenziellen Opfern von Straftaten oder Kinder unbedingt erforderlich ist oder zur Verhinderung einer unmittelbaren Gefahr oder eines Terroranschlages.


Klassifizierung von KI-Systemen Hochrisikosysteme und Schlussfolgerungen daraus

Die Verwendung in KI – Systemen in bestimmten Produkten oder zu bestimmten Zwecken (beispielsweise Gesundheit, Beeinträchtigung Sicherheit oder negative Auswirkungen Grundrechte) führt zu Klassifizierungen und Überwachungen.

Es müssen dazu bestimmte Anforderungen erfüllt werden, welche auch überwacht und kontrolliert werden sollen.


Qualitäts- und Transparenzpflichten für bestimmte KI-Systeme und Testdaten, Trainings- und Validierungsdatensätze

Gefordert wird nun beispielsweise auch die Einhaltung des Urheberrechtes, wobei es noch an Vergütungsregelungen für die Nutzung urheberrechtlich geschützter Werke fehlt. Insbesondere diese überragende wirtschaftliche Nutzung urheberrechtlich geschützter Werke verlangt dringend eine solche Regelung. Ihr Ziel muss es sein, die Künstlerinnen und Künstler endlich angemessen für diese technisch-wirtschaftlich neue Nutzungsart im Sinne des Urheberrechtes zu vergüten.

die Kontrolle der verwendeten Test- und Trainingsdaten

Testdaten, Trainings- und Validierungsdatensätze für Hochrisiko-KI-Systeme sollen ebenfalls überwacht und kontrolliert werden. Diese Datensätze müssen dann relevant, repräsentativ, vollständig und fehlerfrei sein (Art. 10 III).

Diese Datensätze müssen zudem den geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen entsprechen, unter den das Hochrisiko-KI-System eingesetzt wird (Art. 10 IV).

Transparenzpflichten bei bestimmten KI-Systemen

Die Einhaltung der Anforderungen an diese Datensätze müssen transparent nachgewiesen und kontrolliert werden (Art.13).

Diese Aufsichtsmaßnahmen für Hochrisiko-KI-Systeme müssen so konzipiert werden – Art. 14 – dass sie durch Menschen kontrolliert werden können.

Genauigkeit, Robustheit und Cybersicherheit

Zudem müssen Hochrisiko-KI-Systeme so ausgelegt sein, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit gewährleisten (Art. 15 I). Zudem müssen Menschen darüber informiert werden, dass sie es mit KI-Systemen zu tun haben (Art. 52).


Maßnahmen zur Innovationsförderung

Durch Reallabore sollen die Entwicklung, Erprobung und Validierung von KI-Systemen erleichtert werden (Art. 53).


Beobachtung nach Inverkehrbringen / Austausch- und Informationspflichten

Die Anbieter von KI-Systemen müssen diese auch nach dem Inverkehrbringen beobachten und unterliegen weitergehenden Austausch- und Informationspflichten (Art. 61).


Verhaltenskodizes

Die Kommission wird außerdem Verhaltenskodizes erlassen (Art. 69), welche sicherstellen sollen, dass die Anforderungen an die KI-Systeme eingehalten werden.


Zwischenfazit

Der AI Act der EU ist der erste weltweite grundlegende Versuch, die Nutzung der KI aufgrund berechtigter Bedenken der Menschen zu regeln.

Verschiedene abschreckende Beispiele gerade auch aus unterschiedlichen Diktaturen, welche KI Teil des Überwachungssystems haben werden lassen, führen zu diesen berechtigten Anliegen.

Zudem aber beschäftigt die Regulierung der KI weiterhin die Frage des Einsatzes im Bereich des Gesundheitswesens oder der Infrastruktur. Die Beherrschbarkeit durch den Menschen soll nicht aufgegeben werden.

angemessene Vergütungen für Kreative – ohne Künstlerinnen und Künstler bleibt die KI stehen

Deutlichen Verbesserungsbedarf sehe ich auch im Bereich des Urheberrechtes. Die Nutzung der KI stellt inzwischen meines Erachtens nach eine neue technisch-wirtschaftliche Nutzungart dar, für welche den Kreativen eine angemessene Vergütung zustehen muss.

Die Revidierte Berner Übereinkunft (RBÜ), das Welturheberrechtsabkommen von 1952 und die verschiedenen europäischen Richtlinien zum Urheberrecht verpflichten Kommission, Parlament und Rat zur Einführung einer angemessenen Vergütung für Kreativen bei der Nutzung ihrer Werke zu Test- oder Trainingszwecken.



Verwandte Kategorien:

IT-Recht Kunst und Recht Datenschutzrecht

Verschlagwortet unter:

Urheberrecht Bundesdatenschutzgesetz (BDSG) Datenschutz Datenschutzrecht Internetrecht IT-Recht Kunstrecht Social Media Compliance

Kontakt

Menü

Rechtsanwalt Jan Froehlich, LL.M.*
(*University of London, LL.M. - Intellectual Property)
Fachanwalt für Gewerblichen Rechtsschutz
Fachanwalt für Informationstechnologierecht

Märkisches Ufer 34
10179 Berlin

Alle Rechte an urheberrechtlich geschützten Inhalten, wie insbesondere den Beiträgen von Rechtsanwalt Jan Froehlich, LL.M., bleiben ausdrücklich vorbehalten. Einer Verwendung für das Training von Künstlicher Intelligenz durch die Verwendung der Inhalte dieser Webseite wird insgesamt widersprochen und zwar der Verwendung von Teilen von Texten oder ganzen Texten, wie insbesondere auch, aber nicht beschränkt auf Überschriften, Begriffe, bestimmte Formulierungen, bestimmte Text-Abschnitte, der Nutzung von Abbildungen oder Symbolen oder dem gesamten Inhalt der Website. Es bleiben sämtliche Rechte vorbehalten.

Nach oben scrollen