EU AI Act 2026: Was IT-Leiter und Entwickler im DACH-Raum jetzt wissen müssen

Der EU AI Act greift ab August 2026 mit vollen Hochrisiko-Pflichten. Ein vollständiger Überblick über Fristen, Pflichten, Tools und praktische Schritte für IT-Entscheider im DACH-Raum.

Martin Stagl 5 Min. Lesezeit
AI DSGVO

EU AI Act 2026: Was IT-Leiter und Entwickler im DACH-Raum jetzt wissen müssen

Der EU AI Act ist seit August 2024 in Kraft – und ab August 2026 greifen die schärfsten Pflichten für Hochrisiko-KI-Systeme. Wer als IT-Leiter oder Entwickler im DACH-Raum KI einsetzt, muss jetzt handeln: Systeme klassifizieren, Dokumentation aufbauen, Governance-Strukturen schaffen. Deutschland hat die nationale Umsetzung verschlafen, die EU-Kommission hinkt bei Guidelines hinterher, und harmonisierte Standards sind frühestens Ende 2026 fertig. Trotzdem tickt die Uhr. Dieser Beitrag liefert einen vollständigen Überblick über Fristen, Pflichten, Tools und praktische Schritte.


Der Zeitplan: Wann greift was?

Die EU hat den AI Act (Verordnung (EU) 2024/1689) am 12. Juli 2024 im Amtsblatt veröffentlicht. Am 1. August 2024 trat er in Kraft – aber nicht alles auf einmal. Die Einführung erfolgt gestaffelt in mehreren Phasen:

Bereits wirksam: Seit dem 2. Februar 2025 gelten die Verbote für KI-Praktiken mit unannehmbarem Risiko (Artikel 5) und die KI-Kompetenzpflicht (Artikel 4). Konkret bedeutet das: Social Scoring, manipulative KI, Emotionserkennung am Arbeitsplatz und biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum sind verboten. Alle Unternehmen müssen außerdem sicherstellen, dass Mitarbeiter, die KI-Systeme bedienen, über ausreichende KI-Kompetenz verfügen.

Seit dem 2. August 2025 gelten die Pflichten für GPAI-Modelle (General Purpose AI, also Modelle wie GPT, Claude, Llama), die Governance-Strukturen (Kapitel VII), das Sanktionsregime und die Meldepflichten. Mitgliedstaaten mussten bis zu diesem Datum nationale Aufsichtsbehörden benennen – was Deutschland allerdings verpasst hat.

Die zentrale Frist ist der 2. August 2026. Ab dann gelten sämtliche Hochrisiko-Pflichten für KI-Systeme aus Anhang III: Risikomanagement, technische Dokumentation, Daten-Governance, Transparenz, menschliche Aufsicht, Registrierung in der EU-Datenbank und Konformitätsbewertung. Auch die Transparenzpflichten nach Artikel 50 (Kennzeichnung von KI-generierten Inhalten, Deepfakes) werden durchsetzbar. Für Hochrisiko-KI-Systeme in regulierten Produkten (Medizinprodukte, Maschinen etc. nach Anhang I) gilt eine verlängerte Frist bis zum 2. August 2027.

DatumWas passiert
1. Aug. 2024Inkrafttreten der Verordnung
2. Feb. 2025Verbotene KI-Praktiken + KI-Kompetenz
2. Aug. 2025GPAI-Pflichten, Governance, Sanktionsregime
2. Feb. 2026Frist für Guidelines zu Art. 6 (Hochrisiko-Klassifikation) – von der Kommission verpasst
2. Aug. 2026Hochrisiko-Pflichten (Anhang III), Transparenzpflichten, volle Durchsetzung
2. Aug. 2027Hochrisiko-Pflichten für Anhang-I-Produkte, GPAI-Bestandsmodelle

Mögliche Verschiebung: Am 19. November 2025 hat die EU-Kommission den „Digital Omnibus on AI” vorgeschlagen, der die Hochrisiko-Fristen an die Verfügbarkeit harmonisierter Standards koppeln würde – maximal bis Dezember 2027 für Anhang-III-Systeme. Dieser Vorschlag wird derzeit zwischen Parlament und Rat verhandelt. Ob er rechtzeitig kommt, ist unsicher. IT-Leiter sollten daher weiterhin vom August 2026 als verbindlicher Frist ausgehen.


Die vier Risikoklassen: Wo fällt eure KI rein?

Das Herzstück des AI Act ist die risikobasierte Klassifikation. Je höher das Risiko, desto strenger die Pflichten. Es gibt vier Stufen – und die Einordnung entscheidet über den gesamten Compliance-Aufwand.

Unannehmbares Risiko (verboten): Acht KI-Praktiken sind seit Februar 2025 komplett verboten. Dazu gehören Social Scoring (Bewertung von Personen auf Basis ihres Sozialverhaltens), subliminale Manipulation, Ausnutzung von Schwachstellen (Alter, Behinderung), ungezieltes Scraping von Gesichtsbildern aus dem Internet oder von Überwachungskameras, Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen, biometrische Kategorisierung nach sensiblen Merkmalen (Ethnie, Religion, sexuelle Orientierung), prädiktive Polizeiarbeit auf Basis reinen Profilings und biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum (mit engen Ausnahmen für die Strafverfolgung). Verstöße kosten bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes.

Hochrisiko: Diese Kategorie ist für die meisten Unternehmen die relevanteste. Es gibt zwei Wege in die Hochrisiko-Einstufung: Erstens über Anhang I – wenn die KI eine Sicherheitskomponente in einem regulierten Produkt ist (Medizinprodukte, Maschinen, Aufzüge, Spielzeug etc.) und eine Drittanbieter-Konformitätsbewertung braucht. Zweitens über Anhang III mit acht konkreten Anwendungskategorien:

  • Biometrie: Fernidentifizierung, biometrische Kategorisierung, Emotionserkennung
  • Kritische Infrastruktur: KI als Sicherheitskomponente in Strom-, Wasser-, Gas-, Wärmeversorgung oder Straßenverkehr
  • Bildung: Zugangs- und Zuweisungsentscheidungen, Bewertung von Lernleistungen, Prüfungsüberwachung
  • Beschäftigung/HR: Recruiting-KI (Stellenanzeigen-Targeting, CV-Screening, Kandidatenbewertung), Beförderungs-/Kündigungsentscheidungen, Leistungsüberwachung
  • Zugang zu Dienstleistungen: Bonitätsprüfung, Risikobewertung für Lebens-/Krankenversicherungen, Notdienst-Triage
  • Strafverfolgung: Risikobewertung für Opfer/Täter, Beweismittelbewertung, Profiling
  • Migration/Asyl/Grenzschutz: Risikobewertungen, Antragsbearbeitung, Identifizierung
  • Justiz und demokratische Prozesse: KI zur Unterstützung bei Rechtsauslegung, Beeinflussung von Wahlen

Begrenztes Risiko (Transparenzpflichten): Hier geht es hauptsächlich um Chatbots und generative KI. Wer ein System betreibt, das direkt mit Menschen interagiert, muss offenlegen, dass es sich um KI handelt. KI-generierte Inhalte (Texte, Bilder, Videos, Audio) müssen maschinenlesbar als solche gekennzeichnet werden. Deepfakes müssen als künstlich erzeugt deklariert werden.

Minimales Risiko (keine Pflichten): Die große Mehrheit aller KI-Systeme fällt hierhin. Spamfilter, KI-gestützte Rechtschreibprüfung, Empfehlungsalgorithmen für Unterhaltung, Bestandsmanagement und – für viele beruhigend – Predictive Maintenance in der Industrie werden explizit als minimales Risiko eingestuft. Hier gibt es keine gesetzlichen Anforderungen, nur freiwillige Verhaltenskodizes.

Wo typische Unternehmens-KI einzuordnen ist

AnwendungRisikoklasseBegründung
Chatbot im KundenserviceBegrenztes RisikoTransparenzpflicht: Nutzer müssen wissen, dass sie mit KI sprechen
Recruiting-KI (CV-Screening)HochrisikoExplizit in Anhang III, Kategorie 4a gelistet
Predictive MaintenanceMinimales RisikoKein Einfluss auf Rechte natürlicher Personen
KI-Code-Assistent (Copilot)Minimales RisikoKein Anhang-III-Anwendungsfall, keine Entscheidungen über Personen
Bonitätsprüfung/Credit ScoringHochrisikoExplizit in Anhang III, Kategorie 5b (Ausnahme: reine Betrugserkennung)
KI in MedizinproduktenHochrisikoÜber Anhang I (Medizinprodukteverordnung) und/oder Anhang III
Content-Empfehlungen (Streaming)Minimales RisikoUnterhaltung, keine grundrechtsrelevanten Entscheidungen
Betrugserkennung (Finanzen)Minimal bis begrenztExplizit von Hochrisiko ausgenommen, wenn reine Fraud Detection

Wichtig – der Artikel-6(3)-Filter: Nicht jedes System in Anhang III ist automatisch Hochrisiko. Ein System kann ausgenommen werden, wenn es nur eine enge Verfahrensaufgabe erfüllt (z. B. unstrukturierte Daten sortieren), ein vorheriges menschliches Ergebnis verbessert, Muster erkennt ohne menschliche Bewertung zu ersetzen oder nur vorbereitende Aufgaben durchführt. Aber: Sobald das System Profiling natürlicher Personen durchführt, ist es immer Hochrisiko – ohne Ausnahme. Anbieter müssen diese Einschätzung dokumentieren und das System trotzdem in der EU-Datenbank registrieren.


Was Unternehmen konkret tun müssen: Provider vs. Deployer

Der AI Act unterscheidet zwischen Anbietern (Providern) und Betreibern (Deployern) – und die Pflichten sind sehr unterschiedlich verteilt.

Provider ist, wer ein KI-System entwickelt oder entwickeln lässt und es unter eigenem Namen auf den Markt bringt. Provider tragen die Hauptlast der Compliance. Für Hochrisiko-Systeme müssen sie ein umfassendes Paket erfüllen:

Das Risikomanagementsystem (Art. 9) muss als kontinuierlicher, iterativer Prozess über den gesamten Lebenszyklus etabliert werden. Es umfasst die Identifikation und Analyse bekannter und vorhersehbarer Risiken, deren Bewertung unter bestimmungsgemäßer Nutzung und vorhersehbarer Fehlanwendung, die laufende Auswertung von Post-Market-Monitoring-Daten und die Implementierung gezielter Risikominderungsmaßnahmen. Das Restrisiko nach Minderung muss akzeptabel sein.

Die Daten-Governance (Art. 10) verlangt, dass Trainings-, Validierungs- und Testdaten Qualitätskriterien erfüllen: relevant, ausreichend repräsentativ, möglichst fehlerfrei und vollständig. Unternehmen müssen Datenherkunft, Aufbereitungsprozesse, Annahmen und mögliche Verzerrungen dokumentieren und geeignete Maßnahmen zur Bias-Erkennung und -Minderung umsetzen. Besondere Datenkategorien (Ethnie, Gesundheit etc.) dürfen unter strengen Auflagen für Bias-Korrekturen verarbeitet werden.

Die technische Dokumentation (Art. 11) muss vor dem Inverkehrbringen erstellt werden und die Elemente aus Anhang IV abdecken: Systembeschreibung, Entwicklungsprozess, Risikomanagement, Trainings-/Testdaten, Human-Oversight-Maßnahmen, Genauigkeit, Robustheit und Cybersicherheit. Diese Dokumentation muss 10 Jahre aufbewahrt werden.

Die Protokollierungspflicht (Art. 12) verlangt, dass Hochrisiko-Systeme technisch in der Lage sein müssen, Ereignisse automatisch aufzuzeichnen – über ihre gesamte Lebensdauer. Die Transparenzpflicht (Art. 13) fordert eine Betriebsanleitung mit Leistungsmerkmalen, Einschränkungen, Genauigkeitsmetriken und erforderlichen Aufsichtsmaßnahmen. Die menschliche Aufsicht (Art. 14) muss im Design verankert sein – Nutzer müssen das System verstehen, überwachen, Ergebnisse verwerfen und es stoppen können. Zusätzlich braucht es ein Qualitätsmanagementsystem (Art. 17), eine EU-Konformitätserklärung (Art. 47), das CE-Kennzeichen (Art. 48), die Registrierung in der EU-Datenbank (Art. 49), Post-Market-Monitoring (Art. 72) und Meldepflichten für schwerwiegende Vorfälle (Art. 73) – innerhalb von 15 Tagen, bei Todesfällen innerhalb von 2 Tagen.

Deployer ist jedes Unternehmen, das ein KI-System beruflich nutzt – eine sehr niedrige Schwelle. Deployer-Pflichten sind leichter, aber nicht trivial: Nutzung gemäß Betriebsanleitung, Umsetzung der menschlichen Aufsicht mit kompetenten Personen, Überwachung des Betriebs, Aufbewahrung automatisch erzeugter Protokolle (mindestens 6 Monate), Information betroffener Personen und – bei Arbeitgebern – Information der Belegschaft und ihrer Vertreter. Öffentliche Stellen und bestimmte private Deployer (Kreditwürdigkeitsprüfung, Versicherungen) müssen zusätzlich eine Grundrechte-Folgenabschätzung (FRIA, Art. 27) durchführen.

Wann wird ein Deployer zum Provider? Drei Szenarien: Wenn ein Unternehmen ein fremdes KI-System unter eigenem Namen vermarktet, wenn es eine wesentliche Änderung vornimmt, die die Konformität betrifft, oder wenn es den Verwendungszweck so ändert, dass das System hochriskant wird. Reines Fine-Tuning, RAG oder Prompt-Engineering lösen in der Regel keine Provider-Eigenschaft aus – es sei denn, die Änderung ist so grundlegend, dass sie die Konformität beeinflusst.

GPAI-Modell-Pflichten

Anbieter von GPAI-Modellen (wie OpenAI, Google, Anthropic, Meta) haben seit August 2025 vier Kernpflichten: technische Dokumentation, Informationen für nachgelagerte Anbieter, Copyright-Compliance-Politik und eine öffentliche Zusammenfassung der Trainingsinhalte. Modelle mit systemischem Risiko (ab 10²⁵ FLOPs Trainingsaufwand) haben Zusatzpflichten: Modellevaluierungen mit Adversarial Testing, Risikobewertung und -minderung, Vorfallmeldung und Cybersicherheit. Der GPAI Code of Practice wurde am 10. Juli 2025 veröffentlicht und am 1. August 2025 von der Kommission gebilligt. Google, Microsoft, OpenAI und Anthropic haben ihn unterzeichnet – Meta hat nicht unterzeichnet und hält offenbar seine fortschrittlichsten Modelle vom EU-Markt fern.


DSGVO und AI Act: Wo sich die Regelwerke treffen und reiben

Der AI Act und die DSGVO gelten gleichzeitig und vollumfänglich. Artikel 2(7) des AI Act stellt klar, dass er die DSGVO nicht berührt – beide müssen erfüllt werden. In der Praxis gibt es erhebliche Überschneidungen, aber auch Spannungen.

Datenminimierung vs. Datenqualität ist die größte Reibungsfläche. Die DSGVO verlangt, nur so viele personenbezogene Daten wie nötig zu verarbeiten. Der AI Act hingegen fordert repräsentative, möglichst vollständige Datensätze für Bias-Erkennung – was oft mehr Daten erfordert, gerade zu sensiblen Merkmalen wie Ethnie oder Geschlecht. Artikel 10(5) des AI Act erlaubt ausnahmsweise die Verarbeitung besonderer Datenkategorien zur Bias-Korrektur, aber ob das eine eigenständige Rechtsgrundlage nach DSGVO Art. 9 darstellt, ist umstritten. Erwägungsgrund 70 erklärt Bias-Prävention zum „wesentlichen öffentlichen Interesse” – was Art. 9(2)(g) DSGVO aktivieren könnte. Die Rechtslage ist unsicher, und die gemeinsamen Leitlinien von EDPB und AI Office stehen noch aus.

Drei sich überlappende Folgenabschätzungen kommen auf Unternehmen zu: die DSFA (Datenschutz-Folgenabschätzung nach DSGVO Art. 35), die Konformitätsbewertung des AI Act (Art. 43) und die Grundrechte-Folgenabschätzung (Art. 27). Art. 27(4) des AI Act sagt ausdrücklich, dass die FRIA die DSFA ergänzen soll – beide können und sollten also in einem integrierten Prozess durchgeführt werden.

Automatisierte Entscheidungen: DSGVO Art. 22 schützt vor rein automatisierten Entscheidungen mit rechtlicher Wirkung. Der AI Act geht weiter: Art. 14 verlangt menschliche Aufsicht „by Design” auch für teilautomatisierte Systeme. Wer Art. 26(1) AI Act erfüllt (menschliche Aufsicht bei Hochrisiko-KI), erfüllt in der Regel gleichzeitig Art. 22 DSGVO. Das neue Recht auf Erklärung (Art. 86 AI Act) ergänzt die DSGVO-Auskunftsrechte, gilt aber nur für Hochrisiko-KI und ist subsidiär zur DSGVO.

Pragmatische Empfehlung: Bestehende DSGVO-Prozesse als Fundament nutzen. DSFA-Templates um KI-spezifische Risiken erweitern. Gemeinsame Dokumentation und Governance-Strukturen für beide Rahmenwerke aufbauen. DPO-Rolle um KI-Compliance erweitern oder einen dedizierten KI-Beauftragten etablieren.


Strafen: Was bei Verstößen droht

Das Bußgeldregime des AI Act ist dreistufig und orientiert sich am DSGVO-Modell – mit teils noch höheren Obergrenzen:

  • Verbotene KI-Praktiken (Art. 5): Bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes – je nachdem, welcher Betrag höher ist
  • Verstöße gegen Hochrisiko-Pflichten und andere Verpflichtungen: Bis zu 15 Mio. € oder 3 % des Jahresumsatzes
  • Falsche oder irreführende Angaben gegenüber Behörden: Bis zu 7,5 Mio. € oder 1 % des Jahresumsatzes

Für KMU und Start-ups gilt eine Sonderregelung: Hier wird der niedrigere der beiden Werte (Prozentsatz oder Festbetrag) herangezogen – anders als bei Großunternehmen, wo der höhere gilt. Das ist ein signifikanter Schutz für kleine Unternehmen.

Neben Bußgeldern können Behörden auch den Betrieb nicht-konformer KI-Systeme untersagen, Rückrufe anordnen und öffentliche Warnungen aussprechen. Natürliche und juristische Personen haben ein Beschwerderecht bei Marktüberwachungsbehörden (Art. 85), und es gibt Whistleblower-Schutz (Art. 87). Die GPAI-spezifischen Bußgelder der EU-Kommission (bis 15 Mio. €/3 %) greifen ab dem 2. August 2026.


Tooling für Entwickler: Womit setzt man Compliance um?

Für Entwickler und IT-Teams gibt es mittlerweile ein beachtliches Ökosystem an Tools – von Open Source bis Enterprise-Plattform.

Risiko-Assessment und Klassifikation

Der erste Schritt ist die Einordnung aller KI-Systeme. Dafür gibt es praktische Werkzeuge: Den EU AI Act Compliance Checker der EU-Kommission (Beta, kostenlos über den AI Act Service Desk), den Interaktiven Compliance Kompass der Bundesnetzagentur (seit Juli 2025, speziell für den deutschen Markt), den TÜV AI-Act Risk Navigator und den Bitkom Click-Through-Tool basierend auf dem Bitkom-Umsetzungsleitfaden. Besonders wertvoll für Entwickler: der Practical AI Act Guide (practical-ai-act.eu) des appliedAI Institute, ein Open-Source-Leitfaden, der Engineering-Praktiken direkt auf AI-Act-Artikel mappt – finanziert vom Bayerischen Digitalministerium.

Bias-Erkennung und Fairness

Hier dominieren Open-Source-Tools. IBM AI Fairness 360 (AIF360) bietet über 70 Fairness-Metriken und 10+ Bias-Minderungsalgorithmen für Pre-, In- und Post-Processing. Microsoft Fairlearn ist besonders gut für die Bewertung von Modellperformance über demografische Gruppen hinweg und integriert sich nahtlos in Azure ML. Google What-If Tool liefert interaktive Visualisierungen ohne Code. Aequitas (University of Chicago) ist ein schlankes Bias-Audit-Toolkit. Alle vier sind Open Source und kostenlos.

Erklärbarkeit (Explainability)

Für die Transparenz- und Aufsichtspflichten des AI Act sind XAI-Tools essentiell. SHAP (SHapley Additive exPlanations) gilt wegen seiner mathematischen Fundierung als regulatorisch bevorzugt – es liefert sowohl globale als auch lokale Erklärungen mit Konsistenzgarantien. LIME ist einfacher zu implementieren, aber weniger präzise. InterpretML von Microsoft kombiniert interpretierbare Modelle (Explainable Boosting Machines) mit Black-Box-Erklärern. Captum ist die Referenz für PyTorch-basierte Deep-Learning-Modelle. Alibi Explain bietet zusätzlich kontrafaktische Erklärungen – minimal nötige Inputänderungen, um die Vorhersage zu kippen. Alle Open Source.

Dokumentation und Audit Trail

Für die technische Dokumentation nach Art. 11 sind Hugging Face Model Cards der De-facto-Standard – über 32.000 veröffentlicht, YAML-basiert, strukturierte Felder für Zweckbestimmung, Limitierungen, Trainingsdaten und Metriken. Der Practical AI Act Guide empfiehlt sie explizit als Ausgangspunkt. MLflow ist das meistverwendete Open-Source-Tool für Experiment-Tracking, Modell-Registry und Parameter-Logging – unverzichtbar für den Audit Trail nach Art. 12. DVC (Data Version Control) versioniert Datensätze Git-artig und ist essenziell für die Daten-Lineage nach Art. 10. Weights & Biases ergänzt das Experiment-Tracking mit starken Visualisierungen.

AI-Governance-Plattformen

Für die organisationsweite Steuerung gibt es kommerzielle Plattformen: IBM watsonx.governance ist Leader in der Forrester Wave AI Governance Solutions Q3 2025 – End-to-End-Lifecycle-Governance, plattformübergreifend, automatisierte Factsheets. Credo AI wurde von Gartner im Market Guide für AI Governance Platforms (November 2025) anerkannt – mit AI-Registry, automatisiertem Risk Assessment und Audit-ready Artifacts. Holistic AI bietet ein EU-AI-Act-spezifisches Risiko-Dashboard (Rot/Gelb/Grün). Aus dem DACH-Raum kommen EQS Privacy Cockpit (kombiniert AI Act + DSGVO), Ailance von 2B Advice (automatisierte Model-Card-Prozesse) und heyData (Compliance-Automatisierung mit AI-Act-Modulen). Für KMU interessant: VerifyWise, eine quelloffene Governance-Plattform (BSL 1.1 Lizenz, self-hosted).

Open Source vs. Kommerziell: Was reicht?

Ein Open-Source-Stack aus MLflow + DVC + SHAP + Fairlearn + Hugging Face Model Cards deckt die technischen Grundlagen ab – Softwarekosten: null, aber internes Know-how nötig. Was Open Source nicht liefert: unternehmensweite KI-Inventare, automatisiertes Regulatory Mapping, abteilungsübergreifende Workflows, Shadow-AI-Erkennung und regulatorisch belastbare Dokumentation. Für KMU liegen die Einstiegskosten bei 10.000–50.000 € pro Jahr (heyData, Ailance, EQS); Enterprise-Plattformen (Credo AI, watsonx) starten bei 100.000 €+. Die OECD schätzt den Compliance-Overhead für Hochrisiko-Systeme auf etwa 17 % der KI-Systemkosten.


Aktuelle Entwicklungen Anfang 2026

EU AI Office: Seit August 2025 offiziell operativ, geleitet von Lucilla Sioli (DG CNECT). Es koordiniert die Entwicklung von rund 70 Durchführungs- und Delegationsrechtsakten. Der AI Act Service Desk ist erreichbar und bietet Self-Assessment-Tools. In der aktuellen „kooperativen Compliance-Phase” (bis August 2026) arbeitet das AI Office eng mit GPAI-Anbietern zusammen, statt sofort durchzusetzen.

Verpasste Fristen: Die Kommission hat die Frist vom 2. Februar 2026 für die Guidelines zur Hochrisiko-Klassifikation nach Art. 6 verfehlt. Entwürfe werden derzeit mit Stakeholder-Feedback finalisiert – Veröffentlichung wird Ende Februar/Anfang März 2026 erwartet. Auch der Durchführungsrechtsakt zum Post-Market-Monitoring-Template steht aus.

Erste Ermittlungen: Es gibt Berichte über erste Untersuchungen des EU AI Office – gegen Grok AI (xAI/X) wegen mutmaßlicher Verstöße bei synthetischen Inhalten und gegen Meta wegen der Einschränkung konkurrierender KI-Anbieter über WhatsApp Business APIs. Diese Berichte stammen allerdings teilweise aus weniger gesicherten Quellen und sollten mit Vorsicht betrachtet werden.

Harmonisierte Standards: CEN/CENELEC liegt deutlich hinter dem Zeitplan. Der erste harmonisierte Standard prEN 18286 (KI-Qualitätsmanagementsystem) hat im Oktober 2025 die öffentliche Befragung begonnen – Veröffentlichung wird frühestens Q4 2026 erwartet. Weitere Standards für Risikomanagement, Daten-Governance, Transparenz und Cybersicherheit befinden sich noch in der Entwicklung. Im Oktober 2025 hat CEN/CENELEC ein beschleunigtes Verfahren eingeführt, bei dem der separate formale Abstimmungsschritt entfällt.

Deutschland hat die nationale Umsetzung wegen des Koalitionsbruchs und der Neuwahlen verschlafen. Das geplante KI-MIG (KI-Marktüberwachungs- und Innovationsförderungsgesetz) benennt die Bundesnetzagentur als zentrale Marktüberwachungsbehörde mit einer neuen „KoKIVO” (Koordinierungs- und Kompetenzstelle). Der KI-Service-Desk der BNetzA ist seit Juli 2025 aktiv und bietet kostenloses Self-Assessment und Informationen, besonders für KMU. Das Gesetz ist aber Stand Februar 2026 noch nicht verabschiedet – es gibt eine faktische Durchsetzungslücke.

Österreich hat eine KI-Servicestelle bei der RTR eingerichtet und einen KI-Umsetzungsplan vorgelegt. Die WKO betreibt aktive Awareness-Kampagnen. Die Schweiz ist kein EU-Mitglied, aber der AI Act betrifft Schweizer Unternehmen mit EU-Kunden direkt. Der Bundesrat hat das EJPD beauftragt, bis Ende 2026 eine Vernehmlassungsvorlage für KI-Regeln vorzubereiten, orientiert am Europarats-KI-Übereinkommen.


Praktische Checkliste: Was IT-Leiter JETZT tun sollten

Die folgende Schritt-für-Schritt-Anleitung priorisiert die wichtigsten Maßnahmen nach Dringlichkeit:

Sofort (Q1 2026):

  1. KI-Inventar erstellen. Alle im Unternehmen eingesetzten KI-Systeme erfassen – auch zugekaufte SaaS-Dienste und APIs. Shadow AI nicht vergessen. Tools nutzen: EU Compliance Checker, TÜV Risk Navigator, Bitkom-Leitfaden oder den BNetzA Compliance Kompass.

  2. Risikoklassifikation durchführen. Jedes System einer Risikoklasse zuordnen. Besonderes Augenmerk auf Systeme, die Entscheidungen über Menschen treffen (HR, Kredit, Versicherung, Bildung). Den Art.-6(3)-Filter prüfen, aber konservativ einschätzen.

  3. Verbotene Praktiken prüfen. Sicherstellen, dass kein System verbotene KI-Praktiken umsetzt – diese sind seit Februar 2025 strafbar. Emotionserkennung am Arbeitsplatz, Social Scoring und manipulative KI sofort abschalten.

  4. KI-Kompetenz sicherstellen. Art. 4 verlangt, dass Mitarbeitende ausreichend geschult sind. Schulungsprogramme für Entwickler, Deployer und Entscheider aufsetzen.

  5. Rollen klären. Für jedes System bestimmen: Sind wir Provider oder Deployer? Nutzen wir Drittanbieter-KI unter eigenem Namen? Fine-Tuning oder wesentliche Änderungen, die Provider-Status auslösen könnten?

Bis Q2 2026 (Vorbereitung auf August-Deadline):

  1. Risikomanagement für Hochrisiko-Systeme aufbauen. Kontinuierlichen, dokumentierten Prozess etablieren: Risikoidentifikation, -bewertung, -minderung, Testverfahren. Kann auf bestehenden Frameworks (ISO 31000, ISO 42001) aufbauen.

  2. Technische Dokumentation erstellen. Annex-IV-konforme Dokumentation für jedes Hochrisiko-System: Systembeschreibung, Trainings-/Testdaten, Genauigkeitsmetriken, Oversight-Maßnahmen, Cybersicherheit. Hugging Face Model Cards als Ausgangspunkt, ergänzt um regulatorische Elemente.

  3. Logging und Audit Trail implementieren. MLflow oder vergleichbare Tools für automatische Protokollierung einrichten. DVC für Datenversioning. Aufbewahrungsfrist beachten: 10 Jahre für Provider-Dokumentation, mindestens 6 Monate für Deployer-Logs.

  4. Bias-Testing in die Pipeline integrieren. Fairlearn oder AIF360 in CI/CD-Pipelines einbauen. Regelmäßige Fairness-Audits für Hochrisiko-Systeme durchführen und dokumentieren.

  5. Menschliche Aufsicht operationalisieren. Für jedes Hochrisiko-System konkret definieren: Wer überwacht? Welche Qualifikation? Wie kann eingegriffen oder das System gestoppt werden? Schulung der Aufsichtspersonen sicherstellen.

  6. DSGVO-Prozesse erweitern. Bestehende DSFA-Templates um KI-spezifische Risiken und FRIA-Elemente ergänzen. DPO und KI-Verantwortlichen in gemeinsame Governance einbinden.

Bis August 2026:

  1. Konformitätsbewertung durchführen. Für Hochrisiko-Systeme die Konformitätsbewertung abschließen, EU-Konformitätserklärung erstellen und CE-Kennzeichen anbringen.

  2. In der EU-Datenbank registrieren. Alle Hochrisiko-Systeme aus Anhang III registrieren. Auch Systeme, die über den Art.-6(3)-Filter als nicht-hochriskant eingestuft werden, müssen registriert werden.

  3. Post-Market-Monitoring einrichten. Systematische Überwachung nach dem Inverkehrbringen etablieren. Meldeprozess für schwerwiegende Vorfälle definieren (15 Tage bzw. 2 Tage bei Todesfällen).

  4. Governance-Plattform evaluieren. Je nach Unternehmensgröße entscheiden: Open-Source-Stack für KMU, EU-spezifische Mittelstandsplattformen (EQS, Ailance, heyData) oder Enterprise-Lösungen (watsonx, Credo AI) für Großunternehmen.

Laufend:

  1. Standards und Guidelines monitoren. CEN/CENELEC-Standards (prEN 18286, Risikomanagement), Kommissions-Guidelines (Art. 6 Klassifikation) und den Digital-Omnibus-Vorschlag verfolgen. BNetzA KI-Service-Desk und RTR KI-Servicestelle als Informationsquellen nutzen.

Fazit: Die Uhr tickt, aber die Werkzeuge sind da

Der EU AI Act bringt die umfassendste KI-Regulierung der Welt – und sie trifft IT-Teams im DACH-Raum direkt. Die gute Nachricht: Für die Mehrheit aller KI-Systeme (Predictive Maintenance, Spamfilter, Code-Assistenten) ändert sich faktisch nichts. Die schlechte Nachricht: Wer Hochrisiko-KI betreibt – und dazu gehören so verbreitete Anwendungen wie Recruiting-Tools und Bonitätsprüfungen – steht vor einem erheblichen Compliance-Aufwand mit einer harten Deadline im August 2026.

Die Standardisierung hinkt, Deutschland hat kein nationales Umsetzungsgesetz, und die Kommission hat eigene Fristen verpasst. Trotzdem sollte niemand auf Verschiebungen wetten. Der Digital Omnibus könnte kommen – muss aber nicht. Das Open-Source-Ökosystem für Fairness, Erklärbarkeit und Dokumentation ist reif genug, um heute zu starten. Die praktischste Maßnahme für jeden IT-Leiter ist das KI-Inventar: Wer nicht weiß, welche KI-Systeme im Einsatz sind, kann weder klassifizieren noch compliance-konform machen. Wer dieses Inventar hat, kann gezielt priorisieren – und wird feststellen, dass der Großteil der eigenen Systeme im grünen Bereich liegt.

Share: