
Regeln für KI in Europa
Mit dem Artificial Intelligence Act (AI Act) legt die EU einen Rahmen fest, um vertrauenswürdige KI und verantwortungsvolle KI-Innovationen in Europa zu fördern. Unternehmen, die Künstliche Intelligenz entwickeln oder nutzen, werden von den Regeln betroffen sein.
Text: Matthias Voigt
Künstliche Intelligenz (KI) ist zu einem zentralen Bestandteil der digitalen Wirtschaft geworden. Ob in der Fertigung, im Gesundheitswesen oder im Finanzsektor – KI treibt Innovationen voran und schafft neue Möglichkeiten. Um der Entwicklung nachzukommen, hat die EU bereits zum 1. August 2024 eine Verordnung erlassen, die auf einem risikobasierten Ansatz für KI-Entwickler und KI-Bereitsteller beruht. Die EU-Mitgliedsstaaten müssen nun den AI Act in nationales Recht gießen. Wir haben die wesentlichen Fragen und Antworten zusammengetragen.
Warum gibt es den AI Act?
Der AI Act wurde eingeführt, um die potenziellen Risiken, die mit dem Einsatz von Künstlicher Intelligenz verbunden sind, zu minimieren. Es gibt Bedenken, dass KI-Systeme diskriminieren könnten, etwa wenn sie auf voreingenommenen Datensätzen basieren, Nutzer manipulieren oder verwendet werden könnten, um Menschen unrechtmäßig zu überwachen. Mit dem AI Act will die EU sicherstellen, dass KI die Sicherheit, Gesundheit und Grundrechte von EU-Bürger*innen nicht gefährdet und im Einklang mit europäischen Werten eingesetzt wird.
Für wen gilt der AI Act?
Der Rechtsrahmen gilt nach dem Marktortprinzip für jegliche Akteure innerhalb und außerhalb der EU, die ein KI-System in der Union auf den Markt bringen und dessen Verwendung Auswirkungen auf EU-Bürgerinnen und EU-Bürger hat. Der AI Act nimmt jegliche Akteure entlang der Wertschöpfungskette in Verantwortung, wenn auch in unterschiedlichem Maß. So werden etwa Unternehmen dann zum Anbieter, wenn sie KI-Systeme entwickeln, zur Nutzung bereitstellen oder unter dem eigenen Namen oder der eigenen Handelsmarke auf den Markt bringen. Sie werden dann zu Betreibern, wenn sie KI-Systeme nutzen oder in interne Prozesse integrieren
Welche Risikostufen gibt es?
Das KI-Gesetz der EU definiert vier Risikostufen für KI-Systeme: inakzeptables, hohes, begrenztes und minimales (bzw. kein) Risiko. Für jede Klasse wird es unterschiedliche Vorschriften und Anforderungen geben.
- Das inakzeptable Risiko ist die höchste Risikostufe. Diese Stufe kann in acht KI-Anwendungen unterteilt werden, die mit den Werten und Grundrechten der EU inkompatibel und damit in der EU verboten sind. Dazu gehören beispielsweise unterschwellige Manipulation, die Beurteilung des emotionalen Zustands einer Person am Arbeitsplatz oder in der Ausbildung oder auch „Social Scoring“.
- KI-Systeme mit hohem Risiko werden am schärfsten reguliert, sind aber dennoch auf dem EU-Markt zugelassen. Diese Stufe umfasst im Wesentlichen Sicherheitskomponenten von bereits regulierten Produkten und gewisse KI-Systeme, die die Gesundheit und Sicherheit von Menschen, ihre Grundrechte oder die Umwelt gefährden könnten. Diese KI-Systeme können potenziell erheblichen Schaden verursachen, wenn sie versagen oder missbraucht werden, beispielsweise Systeme im Bewerbungsprozess oder für die Bewertung der Kreditwürdigkeit. Anbieter solcher Hochrisiko-Systeme müssen einer Reihe an Verpflichtungen nachkommen, zum Beispiel umfangreiche (technische) Dokumentation, Implementierung eines Risikomanagement-Systems oder menschliche Aufsicht (mithilfe von Tools).
- Unter begrenztem Risiko werden KI-Systeme mit einem Risiko der Manipulation oder Täuschung klassifiziert. KI-Systeme, die unter diese Kategorie fallen, müssen Transparenzbestimmungen einhalten, das heißt, Menschen müssen über eine Interaktion mit einer KI informiert werden – sofern dies nicht offensichtlich ist –, und alle „Deepfakes“ bzw. KI-generierte Inhalte müssen gekennzeichnet werden. Chatbots zum Beispiel werden als begrenztes Risiko eingestuft.
- Das minimale Risiko ist die niedrigste Risikostufe. Hierzu gehören alle KI-Systeme, die nicht unter die oben genannten Kategorien fallen, wie z. B. ein Spamfilter. Für diese KI-Systeme gibt es keine Einschränkungen oder verbindlichen Verpflichtungen. Es wird aber empfohlen, Grundsätze wie menschliche Beaufsichtigung, Nichtdiskriminierung und Fairness zu befolgen.
Was verbirgt sich hinter der Pflicht zur KI-Kompetenzvermittlung?
Artikel 4 verpflichtet Unternehmen sicherzustellen, dass alle beteiligten Akteure, die mit der Entwicklung, Implementierung und Nutzung von KI-Systemen in einem Unternehmen befasst sind, über die erforderlichen Kompetenzen und Kenntnisse verfügen. Dies betrifft Anbieter und Betreiber, unabhängig davon, ob es sich um eine KI mit minimalem oder hohem Risiko handelt. Sicherzustellen ist, dass Mitarbeiter ausreichend über die Funktionsweise, die potenziellen Risiken und die sicheren Einsatzmöglichkeiten der KI-Systeme informiert und je nach Bedarf geschult sind.
Wer hat die Aufsicht?
Die nationale KI-Aufsichtsbehörde muss spätestens bis zum 2. August 2025 von der Bundesregierung ernannt werden. Sie wird die Einhaltung der Vorgaben des AI Acts in Deutschland und die Zulassung von Hochrisiko-KI-Systemen überwachen, Unternehmen beraten sowie Sanktionen verhängen. Das Bundesministerium für Wirtschaft und Klimaschutz sieht dafür die Bundesnetzagentur vor. Produktrelevante Fragen für den Automotivebereich aber sollen weiterhin in der Verantwortung des Kraftfahrtbundesamts liegen. Die Verhandlungen dazu sind noch nicht abgeschlossen.
Wie hoch sind die Strafen?
Bei einem Verstoß gegen das Regelwerk für „GPAI“-Systeme und Systeme mit hohem oder begrenztem Risiko drohen Strafen von bis zu 15 Millionen Euro oder drei Prozent des weltweiten Jahresumsatzes des Unternehmens. Wer den Behörden keine korrekten und vollständigen Informationen übermittelt oder irreführende Angaben macht, muss mit Geldbußen von bis zu 7,5 Millionen Euro oder 1,5 Prozent des weltweiten Jahresumsatzes rechnen. Setzt man verbotene KI-Systeme ein oder hält man sich nicht an die Datenanforderungen, drohen sogar Strafen von bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes. KMUs und Start-ups können mit geringeren Strafen belegt werden. Weitere Infos zum AI Act.
Dieser Artikel ist erstmals erschienen im IHK-Magazin „Wirtschaftsdialoge”, Ausgabe 2/2025. Sie möchten das gesamte Heft lesen? Die „Wirtschaftsdialoge” können Sie auch online als PDF-Datei herunterladen.
Kontakt

Matthias Voigt
Bereich:
Kommunikation und Marketing
Themen: IHK-Magazin, Presse- und Öffentlichkeitsarbeit