KI Service-Desk und AI-Act

Bundesnetzagentur startet KI‑Service Desk für Unternehmen

Die Europäische KI‑Verordnung (AI Act) setzt verbindliche Regeln für Entwicklung und Einsatz von Künstlicher Intelligenz (KI) in der EU – mit dem Ziel, Innovation zu ermöglichen und Risiken verlässlich zu begrenzen. In Deutschland übernimmt die Bundesnetzagentur eine zentrale Rolle bei der Umsetzung und bietet mit dem neuen "KI Service Desk" ab sofort konkrete Unterstützung für Unternehmen.
So kann in wenigen Schritten geprüft werden, welcher Risikoklasse ein KI-System zugeordnet werden kann.
Speziell Start-ups und KMU sollen hierdurch mehr Unterstützung bekommen.

Die KI Verordnung der EU (AI Act)

Was ist der AI-Act?

Der EU AI-Act (European Union Artificial Intelligence Act) ist ein Gesetzesentwurf der Europäischen Union zur Regulierung von künstlicher Intelligenz (KI).

Wann tritt der AI-Act in Kraft?

Der AI-Act unterliegt einem Zeitplan, welcher nach dem in Kraft treten am 1. August 2024 bis ins Jahr 2027, stufenweise ausgeführt wird.
Quelle: Bundesnetzagentur

Was ist das Ziel des AI-Acts?

Der AI Act strebt einen ausgewogenen Ansatz an, der Innovation fördert, aber gleichzeitig den Schutz der Bürger und die Wahrung von Grundrechten gewährleistet. Der Fokus liegt auf der sicheren, ethischen und transparenten Nutzung von KI-Systemen innerhalb der EU.

Wer ist vom AI-Act betroffen?

Der AI Act betrifft alle Akteure, die KI-Systeme entwickeln, bereitstellen, nutzen oder in Verkehr bringen, insbesondere in der EU. Dazu gehören:
  • Anbieter von KI-Systemen, die ihre Lösungen auf dem EU-Markt anbieten – egal ob innerhalb oder außerhalb der EU.
  • Nutzer und Betreiber von KI, wenn diese in der EU verwendet werden oder EU-Bürger betreffen.
  • Händler und Importeure von KI-Systemen, die in die EU eingeführt werden.
Nicht betroffen sind:
  • private Nutzer (außerhalb beruflicher Zwecke).
  • militärische oder nationale Sicherheitsanwendungen.
  • Entwicklungs- und Forschungsaktivitäten zu KI-Systemen
  • KI-Systeme die im Rahmen der Strafverfolgung von internationalen Organisationen eingesetzt wird und in Zusammenarbeit mit mindestens einem EU Mitgliedsstaat genutzt wird.

Welche KI-Systeme sind vom AI-Act betroffen?

Das Gesetz wurde entwickelt, um nur KI-Systeme, die ein hohes Risiko für die Allgemeinheit darstellen, strengen Vorschriften zu unterwerfen oder sogar zu verbieten. Die Mehrheit der KI-Systeme fällt jedoch nicht in diese Kategorie und unterliegt entweder keinen Vorschriften oder lediglich Transparenzpflichten. Zur Festlegung, welche Vorschriften für welche KI-Systeme gelten, wurden vier Risikoklassen definiert.
Risikoklasse Kriterien AI-Act-Konsquenzen
Unakzeptables Risiko
  • KI-Systeme, die menschliches Verhalten manipulieren, wie zum Beispiel die Ausnutzung emotionaler oder kognitiver Schwachstellen bei Menschen.
  • Systeme, die Social Scoring oder Überwachung ermöglichen, einschließlich der Bewertung und Einstufung von Personen auf der Grundlage ihrer Handlungen, sozialen Interaktionen oder Überzeugungen.
  • KI-Systeme, die irreführende Inhalte wie Deepfakes produzieren oder in Umlauf bringen, um den Einzelnen oder die Gesellschaft in die Irre zu führen oder ihnen Schaden zuzufügen.
Verboten
Hohes Risiko
  • KI-Systeme wie Gesichtserkennungstechnologie, die zur biometrischen Identifizierung und Klassifizierung eingesetzt werden.
  • KI-Systeme, die im Bereich Beschäftigung und Personal eingesetzt werden, einschließlich Entscheidungen im Zusammenhang mit Einstellung, Beförderung oder Kündigung.
Strenge gesetzliche Voraussetzungen
(Konformitätserklärung)
Begrenztes Risiko
  • KI-Systeme, die bei der menschlichen Entscheidungsfindung helfen, wie Chatbots oder virtuelle persönliche Assistenten.
  • Systeme zur Klassifizierung einer Person anhand biometrischer Informationen.
Transparenzpflicht
geringes Risiko Empfehlungssysteme, Videospiele mit KI, Betrugserkennungssysteme Keine gesetzlichen Vorgaben
Das Conformity-Tool des Europäischen Instituts für Innovation und Technologie (EIT) hilft dabei, schnell zu bestimmen, in welche Risikoklasse ein KI-System eingeordnet wird

Gibt es Sanktionen bei Zuwiderhandlung?

Ja. Gemäß Artikel 99 der Verordnung:
  • Für Verstöße gegen die verbotenen KI‑Anwendungen (siehe Art. 5) sind Bußgelder bis zu 35  Millionen  Euro oder – falls höher – bis zu 7 Prozent des weltweiten Jahresumsatzes des Unternehmens möglich.
  • Für Verstöße gegen andere Verpflichtungen (zum Beispiel Transparenz‑ oder Meldepflichten) bis zu 15  Millionen Euro oder 3  Prozent des globalen Umsatzes.
  • Für falsche, unvollständige oder irreführende Angaben an Behörden: bis zu 7,5  Millionen  Euro oder 1 Prozent des globalen Umsatzes.
  • Für kleine und mittlere Unternehmen (KMU / SMEs) gibt es eine Besonderheit: Das Bußgeld wird auf den niedrigeren Wert des festen Betrags oder des Prozentsatzes beschränkt.
Strafen können ab dem 2. August 2025 verhängt werden.