Was der EU AI Act 2025 für Unternehmen bedeutet

Neue Regeln für KI-Systeme: Das ändert sich 2025
Seit dem 2. Februar 2025 ist der EU AI Act Realität – zumindest in Teilen. Die Europäische Union hat mit diesem Gesetz einen umfassenden Rechtsrahmen geschaffen, der die Entwicklung und Nutzung künstlicher Intelligenz regelt. Ziel ist es, Innovation zu ermöglichen und gleichzeitig Risiken zu minimieren.
Für Unternehmen bedeutet das: Sie müssen ihre KI-Anwendungen künftig nach Risikostufen bewerten und entsprechende Maßnahmen ergreifen. Besonders im Fokus stehen sogenannte Hochrisiko-Systeme – etwa in der Personalgewinnung, der Finanzbranche oder der Medizin.
Warum der AI Act notwendig ist
Künstliche Intelligenz durchdringt immer mehr Lebens- und Arbeitsbereiche. Sie kann Prozesse beschleunigen, Entscheidungen unterstützen und neue Geschäftsmodelle ermöglichen. Doch mit diesen Chancen kommen auch Risiken – von unfairen Bewertungen bis hin zur Manipulation von Menschen.
Der EU AI Act reagiert auf diese Entwicklungen. Er trat am 2. August 2024 in Kraft und schafft einen rechtlichen Rahmen, der Sicherheit, Transparenz und Verantwortung fordert – ohne dabei Innovation zu verhindern. Das Besondere: Der AI Act gilt nicht nur für Firmen innerhalb der EU. Auch Unternehmen aus Drittstaaten, die ihre KI-Produkte in der EU anbieten, sind betroffen.
Vier Risikostufen: Die Einteilung von KI-Systemen
Kernstück des AI Acts ist die risikobasierte Klassifizierung von KI-Systemen. Je höher das potenzielle Risiko für Menschen oder Gesellschaft, desto strenger die Regeln.
1. Unannehmbares Risiko – verboten
KI-Systeme, die ein „unannehmbares Risiko“ darstellen, sind grundsätzlich verboten. Dazu zählen etwa:
- Social Scoring (z. B. nach chinesischem Vorbild)
- manipulative KI-Systeme, die unbewusst Verhalten steuern
- Echtzeit-Gesichtserkennung im öffentlichen Raum (mit wenigen Ausnahmen)
2. Hohes Risiko – strenge Auflagen
Diese Kategorie umfasst KI-Systeme, die sicherheitsrelevant oder grundrechtskritisch sind, etwa:
- Bewerbungs-Scoring im HR
- automatisierte Kreditvergabe
- medizinische Diagnosesysteme
Solche Systeme müssen unter anderem:
- dokumentiert, getestet und nachvollziehbar sein
- menschlich überwacht werden
- Datenschutz- und Sicherheitsanforderungen erfüllen
3. Begrenztes Risiko – Transparenzpflichten
Hier gelten vor allem Kennzeichnungsanforderungen. Nutzer:innen müssen wissen, dass sie mit einer KI interagieren. Beispiele:
- Chatbots
- KI-generierte Texte, Bilder oder Videos
4. Minimales Risiko – kaum Vorgaben
Diese KI-Systeme gelten als unproblematisch. Dazu zählen etwa:
- Übersetzungs-Tools
- Spam-Filter
Für sie gelten keine besonderen Pflichten – eine Art „grüner Bereich“ für KI.
Wer betroffen ist – und was jetzt zu tun ist
Der AI Act betrifft nicht nur Tech-Konzerne. Auch KMUs, Start-ups oder Behörden, die KI-Systeme entwickeln oder einsetzen, müssen sich auf neue Pflichten einstellen. Wichtig ist: Der Geltungsbereich orientiert sich nicht am Firmensitz, sondern am Markt. Wer in der EU KI einsetzt oder anbietet, muss sich an die Regeln halten.
Besonders betroffen:
- Finanzdienstleister (Kredite, Betrugserkennung)
- Gesundheitsbranche (Diagnostik, Risikoeinschätzung)
- Personalwesen (automatisierte Auswahlverfahren)
- Öffentliche Verwaltung (z. B. KI-gestützte Justizsysteme)
Unternehmen sollten jetzt prüfen:
- Welche KI-Systeme im Einsatz sind
- In welche Risikokategorie sie fallen
- Welche Dokumentations- und Prüfpflichten bestehen
- Ob menschliche Aufsicht gewährleistet ist
Zeitplan: Wann gilt was?
Die Umsetzung des EU AI Acts erfolgt schrittweise:
- Februar 2025: Verbot besonders riskanter KI, erste Anforderungen an KI-Kompetenz
- Mai 2025: Verhaltenskodizes müssen vorliegen
- August 2025: Strafen und Meldepflichten treten in Kraft
- August 2026: Die meisten Regelungen gelten verbindlich
- August 2027: Letzte Übergangsfrist für Hochrisiko-KI endet
Konsequenzen bei Verstößen
Die EU greift bei Nichteinhaltung hart durch – ähnlich wie bei der DSGVO. Je nach Schwere des Verstoßes drohen Geldstrafen von bis zu 35 Millionen Euro oder 7 % des Jahresumsatzes.
Beispiele für Sanktionen:
- Verbotene KI-Systeme: bis 35 Mio. €
- Verstöße gegen Auflagen: bis 15 Mio. €
- Falsche Angaben: bis 7,5 Mio. €
KI fördern – aber sicher
Trotz der strengen Vorgaben verfolgt der AI Act kein innovationsfeindliches Ziel. Im Gegenteil: Er erkennt die Bedeutung von KI für Europas Wettbewerbsfähigkeit an. Besonders Start-ups und KMUs sollen durch Förderprogramme und Testumgebungen unterstützt werden.
Die Botschaft ist klar: KI ist willkommen – aber nur, wenn sie verantwortungsvoll eingesetzt wird.
Fazit: Jetzt handeln – mit System
Der EU AI Act markiert den Beginn einer neuen Ära im Umgang mit KI. Unternehmen müssen sich aktiv mit ihren Systemen auseinandersetzen, Verantwortlichkeiten klären und rechtzeitig Maßnahmen einleiten. Wer vorbereitet ist, kann die kommenden Jahre nicht nur gesetzeskonform, sondern auch strategisch nutzen – für eine KI, die Vertrauen schafft und echten Mehrwert bietet.
Quellen:
- European Commission: EU AI Act – Factsheet
- Tagesschau: Weltweit erstes KI-Gesetz – "Europa hat geliefert"
- Handelsblatt: Was Mittelständler über den EU AI Act wissen müssen