Zum Inhalt springen
Journal
21. April 2026
KI-Strategie7 min Lesezeit

EU AI Act 2026: Die 3 Pflichten, die wirklich zählen

Ab August 2026 greifen die Kernpflichten des EU AI Act für Hochrisiko-Systeme vollständig. Wer jetzt noch auf juristische Klärung wartet, riskiert Bußgelder bis zu 35 Millionen Euro. Drei konkrete Anforderungen entscheiden darüber, ob eine KI-Implementierung compliant ist oder nicht.

AT
AdImpact Team
Engineering Team

Wer den EU AI Act als Brüsseler Bürokratieprojekt abgetan hat, bekommt ab Mitte 2026 eine Rechnung: Bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes für Verstöße bei verbotenen KI-Praktiken, bis zu 15 Millionen Euro für Hochrisiko-Verstöße. Die Übergangsfrist für die meisten Hochrisiko-Systeme endet am 2. August 2026. Was danach fehlt, ist kein Compliance-Problem mehr, sondern ein Haftungsrisiko für die Geschäftsführung persönlich.

Risiko-Klassifizierung: Wo Ihr System wirklich steht

Der EU AI Act teilt KI-Systeme in vier Risikoklassen ein: verboten, hochriskant, begrenzt riskant und minimal riskant. Die meisten Unternehmen im Mittelstand operieren in der zweiten und dritten Kategorie, ohne es zu wissen.

Ein Recruiting-KI-System, das Bewerbungen automatisch filtert oder Kandidaten bewertet, fällt unter Anhang III des AI Act als Hochrisiko-System. Dasselbe gilt für KI-gestützte Kreditwürdigkeitsprüfungen, automatisierte Personalentscheidungen und biometrische Kategorisierung. Wer glaubt, sein interner Chatbot sei harmlos, sollte prüfen, ob er Entscheidungen mit Rechtswirkung vorbereitet.

Voice Agents und Chatbots im Kundenkontakt fallen typischerweise in die Kategorie „begrenzt riskant" und unterliegen primär Transparenzpflichten: Der Nutzer muss wissen, dass er mit einer KI spricht. Klingt trivial, ist aber in vielen bestehenden Deployments nicht umgesetzt.

  • Hochrisiko (Anhang III): Recruiting, Kreditvergabe, biometrische Systeme, kritische Infrastruktur
  • Begrenzt riskant: Chatbots, Voice Agents, Deepfake-Generatoren (Transparenzpflicht)
  • Minimal riskant: Spam-Filter, KI-gestützte Suche, Empfehlungssysteme ohne Rechtswirkung
  • GPAI-Modelle (General Purpose AI): Eigene Pflichten für Anbieter, nicht für Nutzer-Unternehmen
Key Insight

Die meisten Mittelständler sind keine Anbieter von KI-Systemen im Sinne des AI Act, sondern Betreiber. Das klingt entlastend, ist es aber nicht: Betreiber tragen Verantwortung für Risikoabschätzung, Datenschutz-Folgenabschätzung und Mitarbeiter-Schulung, unabhängig davon, wer das Modell gebaut hat.

Pflicht 1: Technische Dokumentation und Risikomanagementsystem

Für jedes High-Risk AI-System verlangt der AI Act eine vollständige technische Dokumentation nach Anhang IV. Das ist kein PDF mit Produktbeschreibung, sondern ein lebendiges Dokument: Systemarchitektur, Trainingsdaten-Herkunft, Leistungskennzahlen, bekannte Limitierungen und Maßnahmen zur Risikominimierung.

Parallel dazu ist ein Risikomanagementsystem Pflicht, das den gesamten Lebenszyklus des Systems begleitet. Es reicht nicht, einmalig eine Risikoanalyse zu erstellen. Das System muss kontinuierlich überwacht werden, Abweichungen müssen dokumentiert und Gegenmaßnahmen eingeleitet werden.

Für Unternehmen, die auf Drittanbieter-Modelle setzen, etwa über API-Zugriff auf GPAI-Modelle großer Anbieter, gilt: Der Modellanbieter liefert Teile der Dokumentation, aber die systemspezifische Risikoanalyse für den eigenen Anwendungsfall bleibt beim Betreiber. Wer ein Sprachmodell für automatisierte Kreditentscheidungen nutzt, muss selbst dokumentieren, wie das Modell in diesen Kontext eingebettet ist.

Pflicht 2: Menschliche Aufsicht und Eingriffsmöglichkeit

Artikel 14 des AI Act schreibt für Hochrisiko-Systeme vor, dass Menschen die Möglichkeit haben müssen, das System zu überwachen, zu verstehen und im Zweifelsfall zu übersteuern. Das klingt selbstverständlich, ist es in der Praxis aber selten.

Ein Recruiting-Tool, das Bewerbungen automatisch aussortiert, muss so gebaut sein, dass ein HR-Mitarbeiter jede Entscheidung nachvollziehen und revidieren kann. Das bedeutet: Erklärbarkeit ist keine optionale Feature-Anforderung, sondern gesetzliche Pflicht. Systeme, die auf Black-Box-Modellen basieren und keine Begründung für ihre Ausgaben liefern, sind für Hochrisiko-Anwendungen nicht compliant.

Technisch bedeutet das für Engineering-Teams: Logging aller Entscheidungen mit Zeitstempel und Eingabedaten, Audit-Trails, die mindestens zehn Jahre aufbewahrt werden, und eine Override-Funktion, die nicht drei Klicks tief im Admin-Panel versteckt ist. Wer heute Agentic-AI-Systeme baut, die autonom handeln, muss Human-in-the-Loop-Mechanismen von Anfang an in die Architektur einplanen.

„Unternehmen, die KI in Hochrisiko-Bereichen einsetzen, müssen sicherstellen, dass menschliche Aufsicht nicht nur theoretisch möglich, sondern praktisch wirksam ist. Ein Opt-out-Button, den niemand kennt, erfüllt die Anforderung nicht."
Key Takeaway

— Ulrich Kelber, ehemaliger Bundesbeauftragter für den Datenschutz und die Informationsfreiheit, in einem Vortrag zur KI-Regulierung auf der re:publica 2024.

Pflicht 3: Transparenz gegenüber Betroffenen und Behörden

Transparenz im AI Act hat zwei Dimensionen. Die erste betrifft Endnutzer und Betroffene: Wer mit einem KI-System interagiert oder von dessen Entscheidungen betroffen ist, muss darüber informiert werden. Das gilt für Chatbots ebenso wie für automatisierte Scoring-Systeme in der Personalentwicklung.

Die zweite Dimension betrifft Marktüberwachungsbehörden. Hochrisiko-Systeme müssen in der EU-Datenbank für KI-Systeme registriert werden, bevor sie in Betrieb gehen. Diese Datenbank ist öffentlich einsehbar. Wer dort nicht auftaucht, obwohl er ein Hochrisiko-System betreibt, ist nicht nur nicht compliant, sondern auch für Wettbewerber und Kunden sichtbar non-compliant.

Für AI Act Compliance im Mittelstand bedeutet das konkret: Jedes Deployment eines Hochrisiko-Systems braucht vor dem Go-Live eine Konformitätsbewertung, eine EU-Konformitätserklärung und die Registrierung. Wer das als bürokratischen Overhead betrachtet, unterschätzt den Signalwert gegenüber Geschäftspartnern und Kunden, die zunehmend Compliance als Zulieferer-Kriterium einfordern.

35 Mio. €Max. Bußgeld bei verbotenen KI-Praktiken (oder 7% Jahresumsatz)
Aug. 2026Fristende für Hochrisiko-Systeme nach Anhang III (Quelle: EU AI Act Art. 113)
61%Europäischer Unternehmen ohne formale KI-Governance laut Bitkom KI-Studie 2024

GPAI-Modelle: Was Nutzer-Unternehmen wirklich betrifft

General Purpose AI-Modelle, also Sprachmodelle und Multimodal-Systeme großer Anbieter, unterliegen eigenen Pflichten im AI Act. Diese treffen primär die Anbieter, nicht die Nutzer-Unternehmen. Wer über eine API auf ein solches Modell zugreift, ist kein Anbieter im Sinne des Gesetzes.

Die Grenze verschiebt sich jedoch, sobald ein Unternehmen ein GPAI-Modell in ein eigenes Produkt integriert und dieses Produkt an Dritte vertreibt. Dann wird das Unternehmen zum Anbieter eines KI-Systems und trägt die entsprechenden Pflichten. Wer also ein auf einem Sprachmodell basierendes SaaS-Produkt für Kunden baut, muss die Anbieter-Pflichten des AI Act erfüllen, nicht nur die Betreiber-Pflichten.

Für interne Deployments, etwa ein auf einem Sprachmodell basierendes internes Wissensmanagement-System, bleibt das Unternehmen Betreiber. Die Pflichten sind geringer, aber nicht null: Datenschutz-Folgenabschätzung, Mitarbeiter-Information und Protokollierung bleiben Pflicht, sobald das System personenbezogene Daten verarbeitet.

Was bedeutet das für Unternehmen?

AI Act Compliance ist kein einmaliges Audit-Projekt, sondern eine operative Daueraufgabe. Unternehmen, die das jetzt strukturiert angehen, bauen einen Wettbewerbsvorteil auf: Kunden und Partner fragen zunehmend nach Compliance-Nachweisen, bevor sie KI-gestützte Dienste in ihre eigene Lieferkette integrieren.

  • KI-Inventar erstellen: Alle im Unternehmen genutzten KI-Systeme erfassen, Anwendungsfall dokumentieren und gegen Anhang III des AI Act prüfen. Das dauert bei einem 200-MA-Unternehmen typischerweise zwei bis vier Wochen.
  • Für jedes Hochrisiko-System: Technische Dokumentation nach Anhang IV aufbauen, Risikomanagementsystem implementieren, Logging und Audit-Trail sicherstellen.
  • Human-in-the-Loop nicht nachträglich einbauen: Neue KI-Projekte von Anfang an mit Override-Mechanismen und Erklärbarkeits-Anforderungen spezifizieren. Nachträgliche Implementierung kostet das Drei- bis Fünffache.
  • Transparenz-Pflichten für Chatbots und Voice Agents sofort umsetzen: Nutzer-Information über KI-Interaktion ist technisch trivial und rechtlich nicht verhandelbar.
  • Verantwortlichkeit intern klären: Wer ist AI Compliance Officer? Ohne namentliche Zuständigkeit bleibt Compliance ein Projekt ohne Eigentümer und damit ohne Wirkung.

Häufig gestellte Fragen

Gilt der EU AI Act auch für interne KI-Systeme, die kein Produkt sind?

Ja, wenn das System unter Anhang III fällt. Ein internes Recruiting-Tool, das Bewerbungen filtert, ist ein Hochrisiko-System, unabhängig davon, ob es verkauft wird oder nur intern genutzt wird. Die Betreiber-Pflichten gelten für alle Unternehmen, die solche Systeme einsetzen, auch ohne Außenwirkung.

Wie prüfe ich, ob mein bestehendes KI-System compliant ist?

Der erste Schritt ist die Klassifizierung: Fällt das System unter Anhang III? Wenn ja, folgt eine Gap-Analyse gegen die Anforderungen der Artikel 9 bis 15 (Risikomanagement, Daten-Governance, Dokumentation, Transparenz, menschliche Aufsicht, Genauigkeit). Die EU-Kommission stellt dafür öffentliche Leitlinien bereit, die als Checkliste nutzbar sind. Für komplexe Systeme empfiehlt sich eine externe Konformitätsbewertung durch eine notifizierte Stelle.

Was kostet AI Act Compliance für ein mittelständisches Unternehmen?

Die Kosten hängen stark von der Anzahl der Hochrisiko-Systeme und dem bestehenden Reifegrad ab. Für ein einzelnes Hochrisiko-System mit bestehender Dokumentationsstruktur sind 20.000 bis 60.000 Euro für initiale Compliance-Maßnahmen realistisch, laut Schätzungen des Bitkom aus 2024. Laufende Kosten für Monitoring und Dokumentationspflege liegen typischerweise bei 15 bis 30 Prozent der initialen Investition pro Jahr.

Sind Unternehmen außerhalb der EU betroffen, wenn sie EU-Kunden haben?

Ja. Der AI Act gilt für alle Systeme, deren Ausgaben in der EU genutzt werden, unabhängig vom Sitz des Anbieters oder Betreibers. Das Prinzip entspricht dem der DSGVO: Marktortprinzip statt Niederlassungsprinzip. Ein US-amerikanisches SaaS-Unternehmen, das ein Hochrisiko-System an deutsche Kunden vertreibt, unterliegt denselben Pflichten wie ein deutsches Unternehmen.

Was passiert, wenn ich ein bestehendes System nicht rechtzeitig anpasse?

Marktüberwachungsbehörden können nach dem 2. August 2026 Bußgelder verhängen und den Betrieb von nicht-konformen Hochrisiko-Systemen untersagen. Das Abschalten eines produktiven Systems ist in der Praxis oft teurer als die Compliance-Investition selbst. Wer jetzt noch keine Gap-Analyse hat, sollte diese als erstes priorisieren, nicht als letztes.

Alle Artikel