Blog
EU AI ActComplianceAgentic CodingDACHDigital OmnibusGPAI

EU AI Act + Agentic Coding: Was sich im März 2026 geändert hat — und was CTOs jetzt wissen müssen

Der EU Council hat am 13. März 2026 die High-Risk-Deadlines um 16 Monate verschoben. Die EU Commission hat das erste Audit-Verfahren für GPAI veröffentlicht. Was das für KI-Agenten in der Softwareentwicklung bedeutet — und warum die Verschiebung kein Freifahrtschein ist.

AutorGiuliano FalcoFounder, EconLab AI
Datum
Lesezeit18 min
01

Was im März 2026 passiert ist: Zwei Entscheidungen die alles ändern

Innerhalb einer Woche hat die EU die Landschaft der KI-Regulierung fundamental verändert — in zwei gegenläufige Richtungen gleichzeitig.

12. März 2026: Die EU Commission veröffentlicht das GPAI-Audit-Verfahren

Die Europäische Kommission hat einen Entwurf für eine Durchführungsverordnung veröffentlicht (Referenz: Ares(2026)2709234), der erstmals im Detail beschreibt, wie die Kommission GPAI-Modelle (General Purpose AI) untersuchen und sanktionieren wird. Die öffentliche Konsultation läuft bis 9. April 2026.

Was der Entwurf festlegt:

  • Zugriff auf Code, Gewichte und Infrastruktur: Die Kommission kann API-Zugang, internen Modellzugriff, Quellcode, Modellgewichte und Hosting-Infrastruktur anfordern — auf dem gleichen Level wie interne Mitarbeiter des Anbieters.
  • Unabhängige Experten: Strenge Unabhängigkeitsregeln mit 12-monatigem Lookback auf alle vertraglichen Beziehungen.
  • Monitoring-Abschaltung: Anbieter können verpflichtet werden, ihre eigenen Monitoring-Systeme zu deaktivieren, damit die Auditoren unbeobachtet prüfen können.

Das ist kein Entwurf für irgendwann. Die formale Verabschiedung ist für Q2 2026 geplant.

13. März 2026: Der EU Council verschiebt die High-Risk-Deadlines um 16 Monate

Am selben Tag hat der Rat der Europäischen Union im Rahmen des "Digital Omnibus on AI" (Omnibus VII) seinen Verhandlungsstandpunkt angenommen. Die wichtigsten Änderungen:

  • Standalone High-Risk AI (Annex III): Neue Deadline 2. Dezember 2027 (statt 2. August 2026)
  • Embedded High-Risk AI (Annex I): Neue Deadline 2. August 2028 (statt 2. August 2027)
  • SME-Erweiterung: Regulatorische Erleichterungen gelten jetzt auch für Small Mid-Caps
  • Neues Verbot: KI-generierte nicht-einvernehmliche sexuelle Inhalte sofort verboten

Hintergrund: 48% der EU-Handelsverbände hatten erfolgreich argumentiert, dass die August-2026-Frist eine "unüberwindbare administrative Belastung" für 70% der industriellen KMU des Kontinents darstellen würde. Die technischen Standards, die Unternehmen zur Compliance brauchen, waren schlicht noch nicht fertig.

Wichtig: Dies ist ein Verhandlungsmandat des Rates, kein finales Gesetz. Das Europäische Parlament wird voraussichtlich im Juni 2026 abstimmen. Die endgültigen Änderungen könnten im Juli 2026 veröffentlicht werden. Bis dahin gilt formal noch die ursprüngliche Frist.

02

Was gilt JETZT — Stand März 2026

Trotz der geplanten Verschiebung sind viele Verpflichtungen bereits in Kraft:

DatumWas giltStatus
1. Aug 2024EU AI Act in Kraft getretenAktiv
2. Feb 2025Verbotene KI-Praktiken (Social Scoring, Manipulation). Strafen anwendbar.Aktiv
2. Aug 2025GPAI-Verpflichtungen für Modellanbieter. Nationale Behörden müssen benannt sein.Aktiv
2. Aug 2026Transparenzpflichten (Art. 50). Innovationsmaßnahmen. Enforcement startet. High-Risk möglicherweise verschoben.Geplant
2. Dez 2027Standalone High-Risk AI (Annex III) — wenn Omnibus verabschiedetVorgeschlagen
2. Aug 2028Embedded High-Risk AI in regulierten Produkten — wenn Omnibus verabschiedetVorgeschlagen

Das bedeutet: Die Verschiebung betrifft nur High-Risk-Systeme. Transparenzpflichten, GPAI-Regeln, verbotene Praktiken und das allgemeine Enforcement-Regime gelten weiterhin nach dem ursprünglichen Zeitplan.

03

Die Strafen-Staffel: Drei Tiers, bis zu 7% des Umsatzes

Artikel 99 des EU AI Act definiert drei Stufen von Geldbussen:

TierVerstossMaximale Strafe
Tier 1Verbotene KI-Praktiken (Art. 5)35 Mio. EUR oder 7% des globalen Jahresumsatzes
Tier 2High-Risk-Pflichten (Art. 6-51): fehlende Dokumentation, kein Risikomanagement, keine Konformitätsbewertung, unzureichende menschliche Aufsicht15 Mio. EUR oder 3% des Umsatzes
Tier 3Falsche oder unvollständige Angaben gegenüber Behörden7,5 Mio. EUR oder 1% des Umsatzes

Zur Einordnung: 7% des globalen Umsatzes würde für Meta ~8,5 Milliarden USD bedeuten, für Google ~14 Milliarden, für Microsoft ~16 Milliarden. Diese Strafen übertreffen die DSGVO-Maximalstrafen erheblich.

Faktoren bei der Berechnung: Schwere und Dauer des Verstosses, Vorsatz oder Fahrlässigkeit, Maßnahmen zur Schadensbegrenzung, Unternehmensgröße, frühere Verstöße, Kooperationsbereitschaft.

KMU und Startups erhalten verhältnismäßig angepasste Strafen — aber "angepasst" heißt nicht "erlassen".

04

Warum Agentic Coding besondere Aufmerksamkeit braucht

Die meisten Compliance-Diskussionen drehen sich um KI in Endprodukten: Chatbots, Empfehlungssysteme, Kreditscoring. Aber was ist mit den KI-Agenten die den Code schreiben?

2026 ist das Jahr in dem Agentic Coding den Mainstream erreicht hat. Claude Code, Cursor, Windsurf, GitHub Copilot — Millionen von Entwicklern nutzen KI-Agenten die autonom Code schreiben, testen und deployen. Diese Agenten sind keine passiven Assistenten mehr. Sie führen Tool Calls aus, ändern Dateien, interagieren mit APIs, treffen Architekturentscheidungen.

Die fünf Fragen für CTOs

  1. Risikoeinstufung: Wenn ein KI-Agent Code für ein High-Risk-System schreibt (z.B. Kreditscoring, medizinische Diagnostik) — ist der Agent selbst ein High-Risk-System? Die Antwort ist nicht trivial. Artikel 6 klassifiziert nach dem Einsatzkontext, nicht nach der Technologie.
  2. Dokumentation: Können Sie nachweisen, welche KI-generierten Code-Änderungen in Ihrem Produkt stecken? Git-History allein reicht nicht — der EU AI Act fordert "technische Dokumentation" die den gesamten Entwicklungsprozess abdeckt.
  3. Menschliche Aufsicht (Art. 14): Artikel 14 fordert "effective human oversight". Für Agentic Coding bedeutet das: Gibt es einen dokumentierten Review-Prozess? Wer genehmigt KI-generierten Code? Gibt es Kill-Switches und Iterationslimits?
  4. Transparenz: Wissen Ihre Kunden, dass Teile Ihres Produkts von KI-Agenten erstellt wurden? Artikel 50 verlangt Transparenz — auch wenn das Endprodukt selbst kein KI-System ist.
  5. Audit-Trail: Wenn die EU Commission (oder eine nationale Behörde) den Entwicklungsprozess Ihres High-Risk-Systems prüfen will — können Sie lückenlos nachweisen, welcher Agent welchen Code geschrieben hat, welcher Prompt verwendet wurde, und welcher Mensch die Änderung freigegeben hat?
05

Konkrete Compliance-Checkliste für Agentic Coding

Basierend auf Artikel 9 (Risikomanagement), Artikel 11 (Technische Dokumentation), Artikel 14 (Menschliche Aufsicht) und den neuen Enforcement-Details vom 12. März 2026:

1. Audit-Trails für KI-generierten Code

  • Git-Commits mit KI-Kennzeichnung: Co-Authored-By: Claude Opus 4.6 — jeder KI-generierte Commit muss als solcher erkennbar sein.
  • Prompt-Logging: Welcher Prompt hat welchen Code erzeugt? Nicht im Git-Kommentar, sondern in einem separaten, durchsuchbaren Log.
  • Decision-Logging: Warum hat der Agent diese Architektur gewählt? Bei Multi-Agent-Systemen: Welcher Agent hat welche Entscheidung getroffen?
  • WORM-Formatierung: Neue Best Practice für 2026 — Write Once, Read Many für Reasoning-Trails, um nachträgliche Manipulation auszuschliessen.

2. Human-in-the-Loop für High-Risk-Kontexte

  • "Meaningful human oversight" — keine Rubber-Stamp-Approvals. Code Reviews mit dokumentierter Begründung.
  • Iterationslimits und Kill-Switches: Agenten müssen unterbrechbar sein. Unbegrenzte autonome Loops sind nicht Art.-14-konform.
  • Eskalationspfade: Definierte Kriterien wann ein Agent-Output menschliche Review erfordert (sicherheitskritisch, datenschutzrelevant, regulatorisch sensitiv).
  • Approval Gates: Finanztransaktionen, Datenlöschungen, externe Kommunikation — erfordern explizite menschliche Freigabe vor Ausführung.

3. Compliance-by-Design in der Agent-Architektur

  • Trust Boundaries: Agenten dürfen bestimmte Dateien, Systeme oder Daten nicht ändern. Konfigurierbar, nicht hartcodiert.
  • Output Governance: Validierung vor allen externen Aktionen (API-Calls, Datenbankschreibzugriffe, Deployments).
  • Kosten-Caps: Budget-Limits pro Agent-Session verhindern unkontrollierte Ressourcennutzung.
  • Rollback-Fähigkeit: Jede Änderung muss revertierbar sein. Git-basiert, mit automatischen Checkpoints.

4. KI-Systeminventar

  • Dokumentation aller KI-Komponenten im Unternehmen — intern entwickelt, Drittanbieter, eingebettet
  • Risikokategorisierung jedes Systems (verboten, High-Risk, Limited, Minimal)
  • Verantwortlichkeiten: Wer ist Provider, wer Deployer im Sinne des AI Act?
06

Das neue GPAI-Enforcement: Was Nutzer von Claude, GPT und Gemini wissen müssen

Die Durchführungsverordnung vom 12. März 2026 betrifft zunächst die Anbieter von GPAI-Modellen — Anthropic, OpenAI, Google, Meta, Mistral. Aber die Auswirkungen treffen auch die Nutzer dieser Modelle.

Was die Verordnung für Unternehmen bedeutet die GPAI einsetzen

Wenn die EU Commission eine Untersuchung gegen einen GPAI-Anbieter einleitet, kann sie auch von den Nutzern Informationen anfordern:

  • Welche Daten haben Sie in das Modell eingespeist?
  • Wie integrieren Sie das Modell in Ihre Geschäftsprozesse?
  • Haben Sie die Risiken bewertet?

Die Timeline des Enforcement:

  • August 2025: GPAI-Verpflichtungen für Modellanbieter in Kraft
  • Q2 2026: Formale Verabschiedung der Durchführungsverordnung
  • 2. August 2026: Volle Enforcement-Befugnisse der EU Commission aktiv
  • 2. August 2027: Enforcement auch für Modelle die vor August 2025 auf den Markt kamen

Für Unternehmen die Agentic Coding einsetzen heißt das: Dokumentieren Sie jetzt, welche Modelle Sie nutzen, wie Sie sie integrieren, und welche Governance-Strukturen Sie etabliert haben. Wenn der Auditor fragt, ist "wir nutzen Claude Code für die Entwicklung" keine ausreichende Antwort.

07

Warum die Verschiebung kein Freifahrtschein ist

Die 16-monatige Verschiebung der High-Risk-Deadlines verleitet zu einer gefährlichen Schlussfolgerung: "Wir haben noch Zeit." Drei Gründe warum das falsch ist:

1. Die Verschiebung ist nicht final

Der EU Council hat seinen Verhandlungsstandpunkt angenommen. Das Europäische Parlament muss noch zustimmen. Die endgültige Abstimmung ist für Juni 2026 geplant. Es gibt keine Garantie, dass die Verschiebung in der aktuellen Form bestehen bleibt.

2. Transparenzpflichten und GPAI-Regeln sind nicht verschoben

Artikel 50 (Transparenz) und alle GPAI-Verpflichtungen gelten weiterhin ab dem 2. August 2026. Wenn Sie KI-Agenten einsetzen die mit Menschen interagieren, müssen Sie ab August 2026 transparent kommunizieren — unabhängig von der High-Risk-Verschiebung.

3. Compliance braucht Zeit — und die technischen Standards kommen jetzt

Der Grund für die Verschiebung war, dass die technischen Standards noch nicht fertig waren. Jetzt werden sie finalisiert. Das heißt: Die Anforderungen werden konkreter, nicht weicher. Wer jetzt nicht beginnt, hat im Dezember 2027 dasselbe Problem wie bei der ursprünglichen August-2026-Frist.

Die EY Global Survey zeigt: Die Mehrheit der C-Suite-Führungskräfte nennt Non-Compliance mit KI-Regulierungen als ihr größtes KI-Risiko. Über die Hälfte der Organisationen hat nicht einmal ein Inventar der KI-Systeme die sie in Produktion haben.

08

DACH-Perspektive: Was Deutschland, Oesterreich und die Schweiz betrifft

Die Umsetzung des EU AI Act variiert erheblich zwischen den Mitgliedstaaten. Stand März 2026:

  • Deutschland: Hat die Frist zur Benennung nationaler zuständiger Behörden verpasst. Gehört zu den 12 Mitgliedstaaten die diese Deadline nicht eingehalten haben. Nationale Gesetzgebung zur Umsetzung ist noch nicht verabschiedet.
  • Frankreich, Irland: Ebenfalls ohne nationale Umsetzungsgesetzgebung zum Zeitpunkt des Omnibus-Vorschlags.
  • 19 Mitgliedstaaten hatten zum Stichtag keine Single Points of Contact benannt.

Für DACH-Unternehmen bedeutet das: Selbst wenn die nationalen Behörden noch nicht voll operativ sind, gelten die EU-weiten Regeln direkt — der AI Act ist eine Verordnung, kein Richtlinie. Er ist unmittelbar anwendbar.

Die Schweiz als Nicht-EU-Mitglied ist formal nicht gebunden, aber: Jedes Schweizer Unternehmen das KI-Systeme im EU-Markt anbietet oder auf EU-Bürger anwendet, fällt unter den AI Act — analog zur extraterritorialen Wirkung der DSGVO.

09

Unser Ansatz bei EconLab AI: Compliance-by-Design als Architekturprinzip

Sieben Jahre Wirtschaftsprüfung und IT-Audit haben uns gelehrt: Compliance ist kein Projekt mit Startdatum und Enddatum. Es ist eine Haltung die in die Architektur eingebaut wird.

Bei EconLab AI implementieren wir alle drei Compliance-Strategien von Anfang an:

  • Git-basierte Audit-Trails: Jeder KI-generierte Commit ist als solcher gekennzeichnet. Jeder Prompt ist geloggt. Jede Entscheidung ist nachvollziehbar.
  • Strukturierte Review-Gates: Unser Agent-System hat definierte Approval-Checkpoints. Kein Agent deployt Code ohne menschliche Freigabe in sicherheitskritischen Kontexten.
  • Trust Boundaries: Unsere Agenten operieren innerhalb definierter Grenzen. Was sie ändern dürfen, ist konfiguriert — nicht gehofft.

Wir sind Mitglied der ISACA Fachgruppe Digital Trust und haben am Positionspapier "Vertrauensbildende KI: Chancen, Risiken und Governance von KI-Sprachmodellen" mitgearbeitet. Unser Code of Conduct ist öffentlich einsehbar.

Wenn der EU AI Act — ob im August 2026 oder Dezember 2027 — vollständig durchsetzbar wird, sind wir bereit. Nicht weil wir ein Compliance-Projekt gestartet haben, sondern weil Compliance die Art ist wie wir bauen.

10

10 Handlungsempfehlungen für CTOs — sofort umsetzbar

  1. KI-Inventar erstellen: Dokumentieren Sie alle KI-Systeme in Ihrem Unternehmen — intern, extern, eingebettet. Beginnen Sie diese Woche.
  2. Risikokategorien zuordnen: 40% der Enterprise-KI-Systeme haben laut appliedAI unklare Risikoeinstufungen. Klassifizieren Sie jedes System nach den vier AI-Act-Kategorien.
  3. Agentic-Coding-Audit: Prüfen Sie, welche KI-Agenten in Ihrem Entwicklungsprozess eingesetzt werden und ob deren Output dokumentiert wird.
  4. Transparency-Compliance vorbereiten: Art. 50 gilt ab August 2026, unabhängig von der High-Risk-Verschiebung. Stellen Sie sicher, dass KI-generierte Inhalte als solche erkennbar sind.
  5. Human-Oversight-Prozesse definieren: Wer reviewt KI-generierten Code? Wer genehmigt Deployments? Dokumentieren Sie die Prozesse.
  6. GPAI-Nutzung dokumentieren: Welche Foundation Models nutzen Sie? Wie sind sie integriert? Welche Daten fliessen hinein?
  7. Kill-Switches implementieren: Jeder autonome Agent muss unterbrechbar sein. Iterationslimits, Timeouts, Budget-Caps.
  8. Vendor-Compliance prüfen: Bitten Sie Ihre KI-Anbieter um deren AI-Act-Compliance-Status. Sind sie als GPAI-Provider registriert?
  9. Budget einplanen: McKinsey schätzt Compliance-Kosten für größere Unternehmen auf 8-15 Millionen USD. Der AI-Governance-Plattform-Markt wird 2026 auf 492 Millionen USD geschätzt.
  10. Nicht auf die Verschiebung wetten: Die Omnibus-Änderungen sind nicht final. Bauen Sie Ihre Compliance-Infrastruktur so auf, als würde die ursprüngliche Deadline gelten.
11

Quellen und weiterführende Informationen

Dieser Artikel wird laufend aktualisiert sobald neue Informationen aus dem Trilogue-Verfahren vorliegen. Letztes Update: 23. März 2026.

Über den Autor

Giuliano Falco

Founder, EconLab AI

7 Jahre Wirtschaftsprüfung und IT-Audit. Jetzt baut er mit Agentic Coding die nächste Generation von Audit- und Enterprise-Software.

Bereit für den nächsten Schritt?

Wir beraten zu KI-Strategie, EU AI Act und Agentic Coding.

Gespräch vereinbaren