
Was steckt hinter dem EU AI Act? Ein Kurzüberblick
Mit dem AI Act schafft die Europäische Union einen einheitlichen Rechtsrahmen, um Künstliche Intelligenz sicherer und verantwortungsvoller einzusetzen. Ziel ist es, potenzielle Gefahren zu begrenzen, ohne Innovation unnötig zu erschweren. Grundrechte sollen geschützt und sichergestellt werden, dass KI-Systeme nicht missbräuchlich eingesetzt werden.
Der risikobasierte Ansatz
Das Gesetz unterscheidet KI-Anwendungen nach ihrem Risiko: Von komplett untersagten Systemen über streng regulierte „Hochrisiko"-Anwendungen bis hin zu weitgehend unveränderten Alltags-Tools wie einfachen Textgeneratoren oder Spiele-KIs.
Je höher das Risiko, desto höher sind auch die Vorgaben.
Verbotene Anwendungen und Transparenzpflichten
An das untere Ende der Skala fallen KI-Tools, die kaum Risiken bergen und daher keiner zusätzlichen Regulierung unterliegen. Gleich darüber stehen Anwendungen mit begrenztem Risiko: Hier müssen Entwickler etwa offenlegen, wenn Nutzer mit einer KI interagieren – zum Beispiel Chatbots oder Deepfake-Generatoren.
Deutlich strenger wird es bei Systemen, die unakzeptable Risiken bergen:
- Algorithmen, die Menschen manipulieren
- Soziale Bewertungen („Social Scoring")
- Biometrische Ableitung ohne klare Rechtsgrundlage
Hochrisiko-KI: Anforderungen für Anbieter und Anwender
Im Kern des AI Act stehen sogenannte Hochrisiko-Systeme. Diese kommen in Bereichen wie Gesundheitswesen, Verkehr, Personalrekrutierung, Kreditvergabe oder Strafverfolgung zum Einsatz.
Anbieter solcher KIs müssen:
- Ein Risikomanagement etablieren
- Sicherstellen, dass Trainingsdaten repräsentativ und frei von Verzerrungen sind
- Regelmäßige Tests zur Robustheit und Cybersicherheit durchführen
- Technische Dokumentationen und klare Gebrauchsanweisungen bereitstellen
Generative KI (GPAI)
Besondere Regeln gelten für allgemeine, leistungsfähige KI-Modelle (GPAI). Wer etwa große Sprachmodelle anbietet, muss transparent machen, auf welcher Datenbasis das Modell trainiert wurde und wie Urheberrechte berücksichtigt werden.
Stufenweise Einführung
Der AI Act wird stufenweise wirksam:
- 6 Monate: Verbote für unakzeptable Risiken
- 12 Monate: Regeln für generative KI-Modelle
- 24 Monate: Hochrisiko-Regulierung für viele Anwendungsfälle
- 36 Monate: Verbleibende kritische Bereiche
Compliance und Folgen bei Verstößen
Behörden können stichprobenartige Kontrollen durchführen und bei Verstößen Bußgelder verhängen, die je nach Schwere bis zu mehrere Prozent des Jahresumsatzes eines Unternehmens betragen. Im Ernstfall drohen Vertriebsverbote, Rückrufaktionen oder Unterlassungsverfügungen.
Tipps für Unternehmen
- Risikoanalyse durchführen: Prüfen Sie frühzeitig, in welchen Risikobereich Ihre KI-Lösungen fallen
- Anbieter sorgfältig auswählen: Achten Sie auf Transparenz und AI Act-Konformität
- Datenqualität sicherstellen: Nutzen Sie repräsentative, fehlerfreie und aktuelle Datensätze
- Transparenz schaffen: Informieren Sie Endnutzer über KI-Interaktionen
- Mitarbeiter schulen: Schulen Sie im Umgang mit KI-Systemen
Quelle:
- Bundesregierung. (2025). AI Act verabschiedet - Einheitliche Regeln für Künstliche Intelligenz in der EU
