Der AI Act der EU: Herausforderungen und Lösungen in der KI-Regulierung
Mit dem AI Act (EU-Verordnung 2024/1689) schafft die EU einen verbindlichen Rechtsrahmen für den Einsatz von Künstlicher Intelligenz. Ziel ist eine vertrauenswürdige, wertebasierte Nutzung von KI – bei gleichzeitiger Förderung von Innovation und Investitionen. Doch die komplexe Regulierung bringt neue Herausforderungen mit sich.
Riskobasierter Ansatz
Der AI Act verfolgt einen risikobasierten Ansatz, der klare Regeln für KI-Entwickler und -Anwender festlegt, insbesondere für Hochrisiko-Anwendungsfälle.
Systeme mit inakzeptablen Risiken sind verboten. Darunter fallen Praktiken wie soziales Scoring, Echtzeit-Gesichtserkennung in öffentlichen Räumen, zum Beispiel für die Erstellung von Gesichtserkennungsdatenbanken oder zur Strafverfolgung, Emotionserkennung am Arbeitsplatz und biometrische Kategorisierung.
Weitere Details zu den Risikostufen finden Sie in diesem Artikel der EU.
Hochrisiko-Anwendungen: Strenge Vorschriften
Hochrisiko-KI-Systeme, die signifikante Gesundheits-, Sicherheits- oder Grundrechtsrisiken bergen, sind besonders reguliert. Beispiele sind KI-Sicherheitskomponenten in kritischen Infrastrukturen, Bildungseinrichtungen und dem öffentlichen Dienstleistungszugang. Anbieter dieser Systeme müssen unter anderem Risikobewertungen, umfassende Dokumentationen und menschliche Aufsichtsmaßnahmen gewährleisten.
Die Einstufung des Risikos eines KI-Systems nimmt dabei nicht der Hersteller vor. Nutzer können durch Zweckentfremdung von KI-Anwendungen mit niedrigem Risiko durchaus in eine Kategorie mit strengen Vorschriften oder sogar verbotene Anwendungen geraten. Häufig hängt die Einstufung von den durch das KI-System genutzten Daten ab.
4 Riskostufen für KI-Anwendungen
Den Beitrag finden Sie unter IHK Hessen Innovativ