Große Auswirkungen auf Industrie : AI-Act: Gesetzesentwurf geleakt - was kommt?

Das KI-Gesetz gilt für Unternehmen, die in der EU KI-Systeme entwickeln, einsetzen und nutzen. Es gilt für Anbieter, Integratoren, Importeure, Händler und Hersteller. Das neue Gesetz regelt "KI-Systeme", dabei handelt es sich um maschinengestützte Systeme, die so konzipiert sind, dass sie in unterschiedlichem Maße autonom arbeiten und sich nach ihrer Inbetriebnahme anpassen können - beispielsweise durch Vorhersagen, Empfehlungen oder Entscheidungen. Ausnahmen gelten für Bereiche, die nicht in den Anwendungsbereich des EU-Rechts fallen, für die nationale Sicherheit und für militärische KI.

Das Gesetz betont, dass die bestehenden EU-Rechtsvorschriften zu Datenschutz, Privatsphäre, geistigem Eigentum und Kommunikation gewahrt bleiben. Darüber hinaus wird den Mitgliedstaaten oder der Europäischen Union die Beibehaltung oder Einführung günstigerer Rechtsvorschriften für Arbeitnehmerinnen und Arbeitnehmer im Bereich der Nutzung von KI-Systemen gestattet.

EU-Fahne am Parlamentsdach
Nach jahrelangen Verhandlungen wurde kürzlich Europas neues KI-Gesetz, der EU AI Act, vom Europäischen Parlament verabschiedet. Der Gesetzesentwurf wurde Anfang dieser Woche geleakt. - © Parlamentsdirektion/Bernhard Zofall

Diese Fristen müssen Sie beachten

Der AI-Act wird am zwanzigsten Tag nach seiner Veröffentlichung im Amtsblatt der Europäischen Union in Kraft treten und - mit Ausnahme der spezifischen Bestimmungen - 24 Monate nach seinem Inkrafttreten Anwendung finden.

Es sind Phasen vorgesehen, in denen verschiedene Teile des Gesetzes in Kraft treten. Das Verbot von KI-Systemen mit inakzeptablen Risiken werde 6 Monate nach Inkrafttreten in Kraft treten. Die Verpflichtungen für KI-Systeme mit hohem Risiko würden jedoch erst 36 Monate nach Inkrafttreten in Kraft treten.

Diese Verbote wurden beschlossen

Die vorgeschlagenen Verordnungen sollen durch eine Reihe von Verboten von KI-Praktiken den Einzelnen vor potenziellem Schaden schützen. Dazu gehört das Verbot des Einsatzes von Systemen künstlicher Intelligenz unter Verwendung unterschwelliger Techniken oder absichtlicher Manipulationsstrategien zur Verzerrung des Verhaltens. Auch der Einsatz von KI-Systemen, die Schwachstellen ausnutzen, die sich aus dem Alter, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation ergeben, ist verboten. Der Einsatz biometrischer Kategorisierungssysteme, die auf sensible Informationen schließen lassen, ist ebenfalls verboten.

Darüber hinaus ist der Einsatz von Systemen der künstlichen Intelligenz zur Bewertung oder Klassifizierung des sozialen Verhaltens, die zu einer nachteiligen Behandlung oder zu ungerechtfertigten Konsequenzen führen, verboten. Der Einsatz von biometrischen Echtzeit-Fernerkennungssystemen zu Strafverfolgungszwecken unterliegt strengen Beschränkungen.

Risikostufen: Es gelten unterschiedliche Pflichten

KI-Systeme, die mit einem hohen Risiko verbunden sind, werden auf der Grundlage der Sicherheitskomponenten nach Kriterien eingestuft. Für KI-Systeme, die kein erhebliches Risiko für die Gesundheit, die Sicherheit oder die Grundrechte natürlicher Personen darstellen, sind Ausnahmen vorgesehen. KI-Systeme, die ein hohes Risiko darstellen, müssen hohe Anforderungen erfüllen. Dabei sind der Verwendungszweck und der Stand der Technik im Bereich der KI und verwandter Technologien zu berücksichtigen.

Wer Produkte anbietet, die KI-Systeme enthalten, ist dafür verantwortlich, die vollständige Einhaltung der Harmonisierungsrechtsvorschriften der Europäischen Union zu gewährleisten. Das Risikomanagementsystem besteht aus kontinuierlichen, sich wiederholenden Prozessen, zu denen die Ermittlung von Risiken, deren Bewertung und die Ergreifung geeigneter Maßnahmen gehören.

Risikomanagement, Tests, technische Dokumentation, Aufzeichnungen, Transparenz, menschliche Aufsicht und Cybersicherheit sind Teil der Einhaltung der Vorschriften. Um die Einhaltung zu gewährleisten, müssen Anbieter von KI-Systemen mit hohem Risiko ein Qualitätsmanagementsystem einführen, das der Größe der Organisation des Anbieters angemessen ist.

Unternehmen müssen transparent handeln

In den Transparenzvorschriften wird eine klare Kommunikation über die Interaktion von KI-Systemen, die Kennzeichnung von synthetischen Inhalten und die Einhaltung von Datenregeln gefordert. Für Deep Fakes und KI-generierte Texte bestehen Offenlegungspflichten. Detaillierte Melde-, Bewertungs- und Kennzeichnungsverfahren gelten für KI-Modelle mit hohem systemischem Risiko.

Technische Dokumentation, Informationsaustausch und Einhaltung des Urheberrechts sind für allgemeine KI-Modelle erforderlich. Anbieter aus Nicht-EU-Ländern sind verpflichtet, einen in der Europäischen Union niedergelassenen Vertreter zu benennen, und für Anbieter von KI-Modellen mit hohem Risiko für allgemeine Zwecke gelten zusätzliche Verpflichtungen.

Achtung: Es drohen hohe Strafzahlungen

Die Nichteinhaltung der verbotenen AI-Praktiken kann mit Geldbußen in Höhe von bis zu 35 Millionen Euro oder bis zu 7 Prozent des gesamten weltweit erzielten Jahresumsatzes eines Unternehmens geahndet werden, je nachdem, welcher Betrag höher ist.

Wer den zuständigen nationalen Behörden auf Verlangen unrichtige, unvollständige oder irreführende Angaben macht, wird mit einer Geldbuße von bis zu 7,5 Millionen Euro oder, wenn es sich bei dem Zuwiderhandelnden um ein Unternehmen handelt, von bis zu 1 Prozent seines gesamten weltweit erzielten Jahresumsatzes im vorausgegangenen Geschäftsjahr bestraft, je nachdem, welcher Betrag höher ist.