Die KI Verordnung ist der erste grundlegende Rechtsakt der EU zur Einführung von KI Systemen, dem Verbot bestimmter Praktiken, der Definition von Anforderungen an Hochrisiko-KI-Systeme sowie harmonisierte Transparenzsysteme. Zwar sieht der AI Act auch vor, dass das Urheberrecht beachtet werden soll, regelt aber bisher nicht die Frage der angemessenen Vergütung für die Nutzung der urheberechtlich geschützten Werke. Nunmehr ist der Entwurf weiter beraten worden. Er bedarf noch der Zustimmung des Parlamentes und des Rates der Mitgliedstaaten.
der Anwendungsbereich des AI Actes
Die EU hat den AI Act weiter beraten, nunmehr bedarf er noch der Zustimmung des Parlamentes und des Rates der Mitgliedstaaten.
Die Verordnung soll gemäß Art. 2 für Anbieter gelten, welche KI-Systeme in der Union in Verkehr bringen oder in Betrieb nehmen oder in Europa genutzt werden, unabhängig davon, ob sie ihren Sitz in oder außerhalb der EU haben.
Des Weiteren gilt diese VO für Nutzer von KI Systemen, die sich innerhalb der EU befinden.
die Auswirkung auf Drittländer
Zudem gilt sie auch für Anbieter und Nutzer von KI-Systemen, die in einem Drittland niedergelassen oder ansässig sind, wenn das vom System hervorgebrachte Ergebnis in der Union verwendet wird.
Damit wird ein sehr umfangreicher Anwendungsbereich bezüglich Anbieter und Nutzer sowie die Nutzung der Ergebnisse definiert. Dies entspricht der Rechtsprechung des EuGH auch in anderen Gebieten.
Verbotene Praktiken im Bereich der KI / Beschränkungen bestimmter Praktiken
Die Verordnung verbietet in Art. 5 ausdrücklich das Inverkehrbringen, die Inbetriebnahme oder Verwendung von KI-Techniken der unterschwelligen Beeinflussung oder KI-Systeme, die eine Schwäche oder Schutzbedürftigkeit einer Gruppe von Menschen aufgrund des Alters, der körperlichen oder geistigen Behinderung ausnutzen, wodurch einer Person dieser Gruppe ein physischer oder psychischer Schaden zugefügt wird.
keine KI für social-scoring
Aber auch solche KI-Systeme, welche die Vertrauenswürdigkeit einer Person aufgrund ihres sozialen Verhaltens bewerten, sind unzulässig. Dies gilt insbesondere, soweit es dazu führt, dass bestimmte Gruppen schlechter gestellt werden aufgrund von Daten, die in einem anderen Zusammenhang erhoben wurden oder die Benachteiligungen in ihrer Tragweite ungerechtfertigt oder unverhältnismäßig sind.
Verboten sind KI-Systeme zum Social-Scoring. Dies betrifft also die Bewertung von Menschen aufgrund ihres sozialen Verhaltens, wahllose Gesichtserfassung und das Anlegen von Datenbanken für die Speicherung solcher Bilder.
Einschränkung der Verwendung biozentrischer Echtheut-Fernidentifizierungssysteme
Die Verwendung biozentrischer Echtheit-Fernidentifizierungssysteme ist gemäß Art. 5 II in öffentlich zugänglichen Räumen ebenfalls unzulässig. Dies findet Anwendung, soweit sie nicht zur Suche nach potenziellen Opfern von Straftaten oder Kinder unbedingt erforderlich ist oder zur Verhinderung einer unmittelbaren Gefahr oder eines Terroranschlages.
Klassifizierung von KI-Systemen Hochrisikosysteme und Schlussfolgerungen daraus
Die Verwendung in KI – Systemen in bestimmten Produkten oder zu bestimmten Zwecken (beispielsweise Gesundheit, Beeinträchtigung Sicherheit oder negative Auswirkungen Grundrechte) führt zu Klassifizierungen und Überwachungen.
Es müssen dazu bestimmte Anforderungen erfüllt werden, welche auch überwacht und kontrolliert werden sollen.
Qualitäts- und Transparenzpflichten für bestimmte KI-Systeme und Testdaten, Trainings- und Validierungsdatensätze
Gefordert wird nun beispielsweise auch die Einhaltung des Urheberrechtes, wobei es noch an Vergütungsregelungen für die Nutzung urheberrechtlich geschützter Werke fehlt. Insbesondere diese überragende wirtschaftliche Nutzung urheberrechtlich geschützter Werke verlangt dringend eine solche Regelung. Ihr Ziel muss es sein, die Künstlerinnen und Künstler endlich angemessen für diese technisch-wirtschaftlich neue Nutzungsart im Sinne des Urheberrechtes zu vergüten.
die Kontrolle der verwendeten Test- und Trainingsdaten
Testdaten, Trainings- und Validierungsdatensätze für Hochrisiko-KI-Systeme sollen ebenfalls überwacht und kontrolliert werden. Diese Datensätze müssen dann relevant, repräsentativ, vollständig und fehlerfrei sein (Art. 10 III).
Diese Datensätze müssen zudem den geografischen, verhaltensbezogenen oder funktionalen Rahmenbedingungen entsprechen, unter den das Hochrisiko-KI-System eingesetzt wird (Art. 10 IV).
Transparenzpflichten bei bestimmten KI-Systemen
Die Einhaltung der Anforderungen an diese Datensätze müssen transparent nachgewiesen und kontrolliert werden (Art.13).
Diese Aufsichtsmaßnahmen für Hochrisiko-KI-Systeme müssen so konzipiert werden – Art. 14 – dass sie durch Menschen kontrolliert werden können.
Genauigkeit, Robustheit und Cybersicherheit
Zudem müssen Hochrisiko-KI-Systeme so ausgelegt sein, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit gewährleisten (Art. 15 I). Zudem müssen Menschen darüber informiert werden, dass sie es mit KI-Systemen zu tun haben (Art. 52).
Maßnahmen zur Innovationsförderung
Durch Reallabore sollen die Entwicklung, Erprobung und Validierung von KI-Systemen erleichtert werden (Art. 53).
Beobachtung nach Inverkehrbringen / Austausch- und Informationspflichten
Die Anbieter von KI-Systemen müssen diese auch nach dem Inverkehrbringen beobachten und unterliegen weitergehenden Austausch- und Informationspflichten (Art. 61).
Verhaltenskodizes
Die Kommission wird außerdem Verhaltenskodizes erlassen (Art. 69), welche sicherstellen sollen, dass die Anforderungen an die KI-Systeme eingehalten werden.
Zwischenfazit
Der AI Act der EU ist der erste weltweite grundlegende Versuch, die Nutzung der KI aufgrund berechtigter Bedenken der Menschen zu regeln.
Verschiedene abschreckende Beispiele gerade auch aus unterschiedlichen Diktaturen, welche KI Teil des Überwachungssystems haben werden lassen, führen zu diesen berechtigten Anliegen.
Zudem aber beschäftigt die Regulierung der KI weiterhin die Frage des Einsatzes im Bereich des Gesundheitswesens oder der Infrastruktur. Die Beherrschbarkeit durch den Menschen soll nicht aufgegeben werden.
angemessene Vergütungen für Kreative – ohne Künstlerinnen und Künstler bleibt die KI stehen
Deutlichen Verbesserungsbedarf sehe ich auch im Bereich des Urheberrechtes. Die Nutzung der KI stellt inzwischen meines Erachtens nach eine neue technisch-wirtschaftliche Nutzungart dar, für welche den Kreativen eine angemessene Vergütung zustehen muss.
Die Revidierte Berner Übereinkunft (RBÜ), das Welturheberrechtsabkommen von 1952 und die verschiedenen europäischen Richtlinien zum Urheberrecht verpflichten Kommission, Parlament und Rat zur Einführung einer angemessenen Vergütung für Kreativen bei der Nutzung ihrer Werke zu Test- oder Trainingszwecken.