Zusammenfassung : KI-Verordnung der EU: Das sind die wichtigsten Punkte

a book with the colors and stars of the european union that contains brains and industrial machines coming out of the book industrial style
© Dall.E

Die neue KI-Verordnung der EU wird globale Auswirkungen haben, da sie für Unternehmen gelten wird, die KI-Systeme in EU-Ländern anbieten oder nutzen. Wenn also die Anbieter außerhalb der EU ansässig sind (z. B. im Vereinigten Königreich oder in den USA), der Output aber in der EU erzeugt wird, wird das KI-Gesetz Anwendung finden.

Hier die Zusammefassung des AI-Acts:

Verbotene Praktiken

Ein politisch heikles Thema war die Frage, welche Art von KI-Anwendungen verboten werden sollen, weil sie ein unannehmbares Risiko darstellen. Zunächst stand die Idee im Raum, KI-gestützte Werkzeuge für die allgemeine Überwachung der zwischenmenschlichen Kommunikation zu verbieten. Der Vorschlag wurde aber wieder fallen gelassen. Dafür wurde der Einsatz von Software zur biometrischen Identifizierung verboten. Diese Erkennungssoftware, die ursprünglich nur für den Einsatz in Echtzeit verboten war, darf nur bei schweren Straftaten und mit vorheriger gerichtlicher Genehmigung eingesetzt werden. Außerdem ist der Einsatz von KI-gestützter Software zur Emotionserkennung ist in den Bereichen Strafverfolgung, Grenzmanagement, Arbeitsplatz und Bildung untersagt.

Hochrisiko-Einstufung

Der ursprüngliche Vorschlag stufte KI-Lösungen, die unter die in Anhang III aufgelisteten kritischen Bereiche und Anwendungsfälle fallen, automatisch als hochriskant ein. Demnach müssen Anbieter hier strengere Anforderungen an Risikomanagement, Transparenz und Datenverwaltung einhalten. Die EU-Parlamentsabgeordneten fügten nun aber eine zusätzliche Ebene ein, die besagt, dass ein KI-Modell, das unter die Kategorien des Anhangs III fällt, nur dann als hochriskant gilt, wenn es ein erhebliches Risiko für die Gesundheit, die Sicherheit oder die Grundrechte birgt. Als erhebliches Risiko gilt "ein Risiko, das aufgrund der Kombination von Schwere, Intensität, Eintrittswahrscheinlichkeit und Dauer seiner Auswirkungen erheblich ist und die Fähigkeit besitzt, eine Einzelperson, eine Vielzahl von Personen oder eine bestimmte Gruppe von Personen zu beeinträchtigen". Auf Antrag der Grünen soll auch KI, die zur Verwaltung kritischer Infrastrukturen wie Energienetze oder Wasserwirtschaftssysteme eingesetzt wird, als hohes Risiko eingestuft werden, wenn sie ein schwerwiegendes Umweltrisiko birgt.

Erkennen von Vorannahmen

Um zu verhindern, dass sich Vorurteile etwa aufgrund der sexuellen Ausrichtung oder der religiösen Überzeugung verstärken, haben die Abgeordneten zusätzliche Sicherheitsvorkehrungen vorgesehen. Damit Anbieter von KI-Modellen solcherlei sensible Daten verarbeiten können, darf die Voreingenommenheit nicht durch die Verarbeitung synthetischer, anonymisierter, pseudonymisierter oder verschlüsselter Daten erkennbar sein.Außerdem muss die Auswertung in einer kontrollierten Umgebung erfolgen. Die sensiblen Daten dürfen nicht an Dritte weitergegeben werden und müssen nach der Befangenheitsprüfung gelöscht werden. Die Anbieter müssen auch dokumentieren, warum die Datenverarbeitung stattgefunden hat. Die Verordnung sieht auch allgemeine Grundsätze vor, die sich auf menschliches Handeln und Kontrolle, technische Robustheit und Sicherheit, Datenschutz und Datenverwaltung, Transparenz, soziales und ökologisches Wohlergehen, Vielfalt, Nichtdiskriminierung und Fairness beziehen. Diese sollen in technische Normen und Leitfäden aufgenommen werden.

Nachhaltigkeit von KI mit hohem Risiko

KI-Systeme mit hohem Risiko müssen Aufzeichnungen über ihren ökologischen Fußabdruck führen, und die Basismodelle müssen den europäischen Umweltstandards entsprechen.

Schutz von Urheberrechten

KI-Systeme für allgemeine Zwecke, wie ChatGPT, fallen unter strengere Vorschriften. Die Anbieter solcher Systeme müssen offenlegen, wenn sie urheberrechtlich geschütztes Material für ihr Training verwendet haben. Eine Änderung in letzter Minute im Entwurf des KI-Gesetzes betrifft generative KI-Modelle, die "im Einklang mit dem EU-Recht und den Grundrechten, einschließlich der Meinungsfreiheit, konzipiert und entwickelt werden müssen".

Kritiker befürchten Einschränkung der Wettbewerbsfähigkeit

Vertreter des Thinktanks AI Austria fürchten um die Wettbewerbsfähigkeit Europas und erklären, "dass das KI-Gesetz auch die Innovationsfähigkeit Europas im Bereich der künstlichen Intelligenz fördern muss". Laut einer Studie unter europäischen KI-Unternehmen, die von AI Austria mitinitiiert wurde, glauben 50% der KI-Startups, dass das kommende Gesetz die KI-Innovation in Europa bremsen wird. Weitere 16 % erwägen, die KI-Entwicklung zu stoppen oder in Länder außerhalb der EU zu verlagern. Diese Bedenken rühren auch daher, dass bei den Investitionen Europa bereits jetzt weit abgeschlagen liegt. Etwa 53% der weltweiten privaten Investitionen in KI-Entwicklungen werden laut Studien, auf die sich der Thinktank bezieht, in den USA und 23% in China getätigt. Mit nur 6% hinkt Europa vergleichsweise hinterher.

(Ebenfalls interessant: Industrial AI: Ein Kompass für die Regulierungs-Reise)