Die EU AI Act (auch als KI-Verordnung bekannt) ist ein Gesetzesrahmen der Europäischen Union, der darauf abzielt, die Entwicklung und den Einsatz von Künstlicher Intelligenz (KI) in Europa zu regulieren. Es ist eines der ersten umfassenden Gesetzgebungen weltweit, die sich speziell auf KI-Technologien konzentrieren. Hier sind einige der wichtigsten Punkte:

Ziel des EU AI Act:

•Schaffung eines einheitlichen rechtlichen Rahmens für KI in der EU.

•Sicherstellung der Sicherheit und Grundrechte der Bürgerinnen und Bürger im Umgang mit KI.

•Förderung von Innovation und Vertrauen in KI-Technologien.

Risikobasierter Ansatz:

Der Vorschlag verfolgt einen risikobasierten Ansatz und kategorisiert KI-Systeme in vier Risikostufen:

1.Unvertretbares Risiko: Diese Systeme sind verboten, da sie gegen Grundrechte verstoßen könnten. Beispiele sind KI-Systeme für soziale Bewertung (Social Scoring) und bestimmte biometrische Überwachungssysteme.

2.Hohes Risiko: Diese Systeme unterliegen strengen Auflagen. Dazu gehören KI-Systeme, die in kritischen Bereichen wie Medizin, Verkehr, Justiz oder im Arbeitsmarkt eingesetzt werden. Sie müssen bestimmte Konformitätsanforderungen erfüllen, bevor sie auf den Markt gebracht werden dürfen.

3.Begrenztes Risiko: Systeme, die Transparenzanforderungen erfüllen müssen, z. B. Chatbots, die den Nutzern mitteilen müssen, dass sie mit einer KI interagieren.

4.Minimales Risiko: Die meisten KI-Systeme fallen in diese Kategorie und unterliegen keinen weiteren Vorschriften, abgesehen von den allgemeinen EU-Rechtsvorschriften.

Pflichten der Anbieter und Nutzer:

•Anbieter von KI-Systemen müssen sicherstellen, dass ihre Produkte die Sicherheitsstandards und Grundrechte einhalten, einschließlich der Einführung von Risikomanagementsystemen und der Erstellung von technischer Dokumentation.

•Unternehmen müssen gemäß Artikel 4 des EU AI Act sicherstellen, dass ihre Mitarbeiter, die im Auftrag des Unternehmens das KI-System betreiben oder benutzen, über ausreichend KI-Kompetenz verfügen.

•Nutzer (Unternehmen oder öffentliche Einrichtungen) müssen sicherstellen, dass die Systeme verantwortungsvoll genutzt werden.

Durchsetzung und Sanktionen:

•Die Einhaltung der Vorschriften soll durch nationale Behörden überwacht werden.

•Verstöße können mit hohen Geldbußen geahndet werden, ähnlich wie bei der Datenschutz-Grundverordnung (DSGVO), wobei Bußgelder bis zu 6 % des weltweiten Jahresumsatzes betragen können.

 

Stand des Gesetzgebungsverfahrens:

Die EU-Verordnung über künstliche Intelligenz (AI Act) ist am 2. August 2024 in Kraft getreten. 

Ab dem 2. Februar 2025, also sechs Monate nach Inkrafttreten, gelten spezifische Bestimmungen:

•Verbotene KI-Praktiken: Ab diesem Datum dürfen bestimmte KI-Systeme, die als inakzeptabel eingestuft werden, nicht mehr eingesetzt werden. Dazu zählen beispielsweise Systeme für Social Scoring oder manipulative Anwendungen, die menschliches Verhalten ausnutzen. 

•Anforderungen an die KI-Kompetenz: Anbieter und Betreiber von KI-Systemen sind verpflichtet, sicherzustellen, dass ihr Personal über ausreichende Kenntnisse im Umgang mit KI verfügt. 

Weitere wichtige Fristen im Überblick:

•2. August 2025: Die Bestimmungen für KI-Systeme mit allgemeinem Verwendungszweck (General Purpose AI) treten in Kraft. Zudem müssen Mitgliedstaaten bis zu diesem Datum nationale Behörden benennen, die für die Umsetzung und Überwachung des AI Act zuständig sind. 

•2. August 2026: Ab diesem Datum gelten die meisten Verpflichtungen des AI Act, einschließlich der Anforderungen an Hochrisiko-KI-Systeme gemäß Anhang III. 

•2. August 2027: Die Anforderungen an Hochrisiko-KI-Systeme gemäß Anhang I werden verbindlich.