Der AI Act zielt darauf ab, einen einheitlichen Rechtsrahmen für die Entwicklung, das Inverkehrbringen und die Nutzung von KI-Systemen innerhalb der EU zu schaffen. Dabei sollen die europäischen Werte wie Grundrechte, Demokratie und Rechtsstaatlichkeit gewahrt bleiben. Die Verordnung strebt an, menschenzentrierte und vertrauenswürdige KI zu fördern und gleichzeitig ein hohes Schutzniveau für Gesundheit, Sicherheit und Grundrechte sicherzustellen.
Ein Kernprinzip des AI Act ist der risikobasierte Ansatz, der KI-Systeme in verschiedene Risikokategorien einteilt:
- Unzulässiges Risiko: KI-Systeme, die eine unannehmbare Bedrohung für die Sicherheit oder die Grundrechte darstellen, sind verboten. Dazu gehören beispielsweise Systeme zur sozialen Bewertung oder bestimmte Anwendungen der biometrischen Fernidentifizierung im öffentlichen Raum.
- Hohes Risiko: KI-Systeme, die in sensiblen Bereichen wie kritischer Infrastruktur, Bildung oder Strafverfolgung eingesetzt werden, unterliegen strengen Anforderungen. Diese umfassen unter anderem Risikomanagement, Daten-Governance und Transparenzpflichten.
- Geringes oder minimales Risiko: Für KI-Systeme mit geringem Risiko gelten weniger strenge Vorschriften, wobei dennoch Transparenzpflichten bestehen können, insbesondere wenn die KI mit Menschen interagiert.
Obwohl der AI Act bereits in Kraft ist, haben die Mitgliedstaaten bis zum 2. August 2026 Zeit, die Vorschriften in nationales Recht umzusetzen. Dies gibt den Staaten und Unternehmen die Möglichkeit, sich auf die neuen Regelungen vorzubereiten und die notwendigen Anpassungen vorzunehmen.
Überregulierung und mangelnde internationale Wettbewerbsfähigkeit durch den AI Act
Kritiker befürchten, dass die strengen Vorschriften zu einer Überregulierung führen, die europäische Unternehmen im internationalen Wettbewerb benachteiligt.
Wie schon beschrieben sieht der AI Act umfangreiche Anforderungen für KI-Systeme vor, insbesondere für sogenannte „hochriskante“ Anwendungen. Unternehmen müssen Nachweise zur Transparenz, Fairness und Sicherheit erbringen, was mit hohen Kosten verbunden ist. Start-ups und Mittelständler könnten dadurch abgeschreckt werden, während große Tech-Konzerne aus den USA oder China solche regulatorischen Lasten leichter tragen können.
Wettbewerbsnachteil gegenüber den USA und China
Während Europa auf strenge Regulierung setzt, verfolgen die USA und China eher eine innovationsfreundliche Strategie.
In den USA gibt es bisher keine vergleichbare gesetzliche Regulierung für KI, was dortiges Wachstum begünstigt.
China setzt zwar auf staatliche Kontrolle, fördert aber gleichzeitig gezielt die Entwicklung nationaler KI-Champions.
Europäische Unternehmen könnten dadurch ins Hintertreffen geraten oder gezwungen sein, ihre Forschung und Entwicklung ins Ausland zu verlagern.
Gefahr der Abwanderung und Innovationshemmung
Bereits heute weichen viele europäische KI-Start-ups in die USA aus, um dort von besseren Bedingungen zu profitieren. Ein übermäßig strenger AI Act könnte diesen Trend verstärken und verhindern, dass Europa eigene Technologiegiganten aufbaut.
Während der AI Act wichtige ethische Prinzipien setzt, droht er die Innovationskraft europäischer Unternehmen zu schwächen. Eine ausgewogene Regulierung wäre entscheidend, um sowohl Sicherheit als auch Wettbewerbsfähigkeit zu gewährleisten.