EU AI Act August 2026: Pflichten-Checkliste für Unternehmen in Deutschland
Kurzantwort
Die wesentlichen Pflichten der EU KI-Verordnung (AI Act) gelten ab dem 2. August 2026. Unternehmen in Deutschland, die KI im Kundenkontakt, bei automatisierten Entscheidungen oder als Hochrisiko-KI einsetzen, müssen ihre Compliance bis zu diesem Datum abschließen oder Bußgelder von bis zu 15 Millionen Euro riskieren.
- Transparenzpflichten für KI-Chatbots und kundenseitige KI gelten ab dem 2. August 2026 verbindlich.
- Hochrisiko-KI in Bereichen wie HR, Kreditvergabe oder kritischer Infrastruktur erfordert eine Konformitätsbewertung.
- KI-Verträge mit Anbietern müssen die Betreiberpflichten aus Art. 25 und 26 KI-VO abbilden.
- Die Bundesnetzagentur (BNetzA) ist für Deutschland als Marktüberwachungsbehörde benannt.
Die wesentlichen Pflichten der EU KI-Verordnung (EU AI Act) für Hochrisiko-KI-Systeme und Transparenzanforderungen gelten ab dem 2. August 2026. Unternehmen in Deutschland, die kundenseitige KI, automatisierte Entscheidungssysteme oder Modelle mit allgemeinem Verwendungszweck einsetzen, müssen ihre Compliance bis zu diesem Datum abschließen — andernfalls drohen Bußgelder von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes.
Diese Frist ist nicht neu, aber viele Unternehmen haben den Vorbereitungsaufwand unterschätzt. Compliance-Verantwortliche, Rechtsabteilungen und CTOs brauchen jetzt einen strukturierten Aktionsplan. Diese Seite liefert eine praxisnahe Checkliste und erläutert, welche Pflichten ab dem 2. August 2026 verbindlich gelten.
Was passiert am 2. August 2026?
Der 2. August 2026 ist nicht der erste Durchsetzungstermin des AI Act — aber für die meisten Unternehmen der wichtigste. Die Verordnung trat schrittweise in Kraft:
| Datum | Was gilt |
|---|---|
| 1. August 2024 | EU AI Act tritt in Kraft |
| 2. Februar 2025 | Verbotene KI-Praktiken untersagt (Art. 5) |
| 2. August 2025 | Pflichten für KI-Modelle mit allgemeinem Verwendungszweck (Art. 51–56) |
| 2. August 2026 | Hochrisiko-KI-Pflichten, Transparenzregeln (Art. 50), vollständiges Bußgeldregime |
| 2. August 2027 | Hochrisiko-KI, die bereits unter EU-Produktsicherheitsrecht fällt |
Ab dem 2. August 2026 gelten verbindlich:
- Art. 50: Transparenzpflichten für kundenseitige KI (Chatbots, Emotionserkennung, KI-generierte Inhalte)
- Art. 8–15: Technische Dokumentation, Konformitätsbewertung, menschliche Aufsicht und Protokollierung für Hochrisiko-KI
- Art. 25–26: Betreiberpflichten beim Einsatz von Drittanbieter-KI
- Art. 71: Vollständiges Bußgeldregime für alle Verstoßkategorien
Falls Ihr Unternehmen die GPAI-Pflichten bereits seit August 2025 umgesetzt hat, ist die nächste Compliance-Schicht jetzt die Hochrisiko-KI und die Transparenzpflichten.
Wer ist vom EU AI Act betroffen?
Der EU AI Act gilt für alle Unternehmen, die KI-Systeme auf dem EU-Markt in Betrieb nehmen oder bereitstellen — unabhängig davon, wo das Unternehmen seinen Sitz hat. Das betrifft:
- Unternehmen mit Sitz in Deutschland, die KI in Produkten oder Geschäftsprozessen einsetzen
- Nicht-EU-Unternehmen, die KI-Systeme in der EU bereitstellen oder Kunden in der EU haben
- Anbieter (Provider), die KI-Systeme entwickeln und bereitstellen: Anbieterpflichten
- Betreiber (Deployer), die Drittanbieter-KI einsetzen: Betreiberpflichten nach Art. 25–26
Die Unterscheidung zwischen Anbieter und Betreiber ist praxisrelevant. Wer eine CRM-Software mit eingebetteter KI-Empfehlungsfunktion kauft und im Kundenbetrieb nutzt, ist Betreiber — und Art. 26 gilt unmittelbar.
KMU-Erleichterungen: Kleinstunternehmen und kleine Unternehmen (Gesellschaften mit beschränkter Haftung oder andere Rechtsformen) profitieren von vereinfachten Anforderungen. Die nationalen Behörden müssen vereinfachte Leitlinien bereitstellen. Kernpflichten wie Verbotsklassifizierung, Transparenz und Hochrisiko-Konformität gelten jedoch auch für KMU.
Die Checkliste für den 2. August 2026
Nutzen Sie diese Checkliste, um Ihre Compliance-Vorbereitungen vor dem 2. August 2026 zu strukturieren.
Schritt 1: KI-Systeme inventarisieren
- Alle KI-Systeme erfassen — intern genutzte und kundenseitige
- Drittanbieter-KI in eingesetzter Software erfassen (CRM-KI, HR-Tools, Chatbots, Scoring-Engines, Empfehlungssysteme)
- Für jedes System dokumentieren: Funktion, Anbieter, verarbeitete Personendaten
- Prüfen, ob Ihr Unternehmen als Anbieter, Betreiber oder beides handelt
Schritt 2: KI-Systeme klassifizieren
- Verbotene KI (Art. 5): Social Scoring, biometrische Echtzeitüberwachung, manipulative KI — mussten bereits seit dem 2. Februar 2025 abgeschaltet sein
- Hochrisiko-KI (Anhang III): Konformitätsbewertung, technische Dokumentation, menschliche Aufsicht, Registrierung erforderlich
- Beschränkte Risiken: Transparenzpflichten gelten (Chatbots, Emotionserkennungssysteme, Deepfakes)
- Minimale Risiken: Keine gesetzlichen Pflichten — gute Governance dennoch empfehlenswert
Schritt 3: Hochrisiko-KI-Systeme absichern
- Konformitätsbewertung nach Art. 9–15 durchführen oder von Anbieter anfordern
- Technische Dokumentation gemäß Anhang IV erstellen und pflegen
- Verfahren zur menschlichen Aufsicht implementieren — keine rein automatisierten Entscheidungen mit erheblichen Folgen
- System in der öffentlichen EU-Datenbank für Hochrisiko-KI registrieren, sofern vorgeschrieben
- Verfahren zur Marktüberwachung und Meldung von Vorfällen einrichten
Schritt 4: Kundenseitige KI absichern (Art. 50)
- Klare Offenlegung hinzufügen, wenn Kunden mit einem KI-Chatbot oder automatisierten Assistenten interagieren
- KI-generierte Inhalte kennzeichnen: synthetische Bilder, Audiodateien, Videos und Texte müssen als KI-generiert erkennbar sein
- Prüfen, ob KI-Systeme Emotionen von Nutzern analysieren — zusätzliche Offenlegungspflichten gelten
- Offenlegung muss zu Beginn der Interaktion erfolgen, nicht im Kleingedruckten der AGB
Schritt 5: KI-Verträge prüfen und anpassen
- Bestätigen, dass Anbieter die erforderliche technische Dokumentation nach Art. 25 bereitstellen
- Sicherstellen, dass Betreiberpflichten nach Art. 26 in bestehenden Verträgen abgebildet sind
- Compliance-Dokumentation nach AI Act von Anbietern anfordern — vergleichbar mit der Prüfung eines AVV nach DSGVO
- Vertragsvorlagen aktualisieren, um AI Act-Klauseln zu ergänzen
Schritt 6: Interne AI-Act-Zuständigkeit festlegen
- Interne Ansprechperson für AI-Act-Compliance benennen (keine Volljuristen-Qualifikation erforderlich)
- Koordination zwischen Rechtsabteilung, IT und Geschäftsbetrieb sicherstellen
- Betroffene Teams zu ihren Pflichten nach dem AI Act schulen
Schritt 7: KI-Governance dokumentieren
- Risikomanagementsystem für KI-Systeme einrichten (Art. 9)
- Entscheidungen durch oder mit KI-Systemen dokumentieren, soweit Personendaten betroffen
- Interne Eskalationsverfahren für KI-bezogene Vorfälle festlegen
Schritt 8: DSGVO-Schnittstellen überprüfen
- KI-Systeme identifizieren, die vollautomatisierte Entscheidungen mit rechtlichen oder erheblichen Auswirkungen treffen (Art. 22 DSGVO)
- Auftragsverarbeitungsverträge (AVV) mit KI-Anbietern auf AI Act-Konformität prüfen und anpassen
- Datensparsamkeitspflichten bei KI-Trainingsdaten prüfen
- Bestehende Datenschutz-Folgenabschätzungen auf AI-Act-Risiken erweitern
Hinweise zur DSGVO-Konformität bei KI-Tools finden Sie in unseren Leitfäden zu KI-Chatbots und EU AI Act sowie zu KI-Beauftragten und Claude Enterprise.
Hochrisiko-KI: Welche Systeme fallen unter Anhang III?
Anhang III der KI-Verordnung listet abschließend die Bereiche, in denen KI-Systeme als Hochrisiko eingestuft werden. Für deutsche Unternehmen sind diese Kategorien am häufigsten relevant:
| Anhang III-Kategorie | Praxisbeispiele in Deutschland |
|---|---|
| Beschäftigung und HR (Nr. 4) | KI-gestützte Bewerbungsfilterung, Leistungsbewertung, Schichtplanungs-KI |
| Kreditvergabe und Finanzdienstleistungen (Nr. 5b) | Automatisierte Kreditentscheidungen, Risikobeurteilung, Bonitätsprüfung |
| Biometrische Identifikation (Nr. 1) | Gesichtserkennung zur Zugangskontrolle, biometrische Zeiterfassung |
| Bildung und Ausbildung (Nr. 3) | KI zur Leistungsbewertung, Bewerbungsauswahl in Ausbildungseinrichtungen |
| Kritische Infrastruktur (Nr. 2) | KI in Energienetzmanagement, Wasserversorgung, Logistiknetzen |
| Öffentliche Leistungen (Nr. 5a) | KI bei Leistungsbewilligungen, öffentlichen Ausschreibungen |
Besonders relevant für Unternehmen im HR-Bereich: KI, die bei der Personalauswahl, Leistungsbeurteilung, Beförderungsentscheidungen oder Kündigungen eingesetzt wird oder diese wesentlich beeinflusst, fällt unter Anhang III Nr. 4. Das erfordert eine Konformitätsbewertung, menschliche Aufsicht, Transparenz gegenüber Betroffenen und eine vollständige technische Dokumentation. Eine Mitbestimmung des Betriebsrats nach § 87 Abs. 1 Nr. 6 BetrVG ist in der Regel ebenfalls erforderlich.
Weiterführende Informationen finden Sie in unseren Leitfäden zu KI-gestützten Einstellungstools und AI Act sowie zur KI-Überwachung am Arbeitsplatz.
Transparenzpflichten für kundenseitige KI (Art. 50)
Artikel 50 der KI-Verordnung betrifft alle Unternehmen, die Chatbots, virtuelle Assistenten oder KI einsetzen, die direkt mit Kundinnen und Kunden interagiert.
Ab dem 2. August 2026 sind Betreiber verpflichtet:
1. Nutzer über die KI-Interaktion zu informieren. Wenn Ihr Kundenservice einen KI-Chatbot einsetzt, müssen Nutzerinnen und Nutzer klar und verständlich informiert werden — vor oder zu Beginn der Interaktion. Ein Hinweis im Kleingedruckten der AGB reicht nicht aus.
2. KI-generierte Inhalte zu kennzeichnen. Synthetische Bilder, Tonaufnahmen, Videos und Texte, die durch KI erzeugt wurden, müssen als KI-generiert erkennbar sein. Das gilt für Marketingmaterialien, Produktbilder, Sprachaufnahmen und kundenseitige Kommunikation.
3. Emotionserkennung offenzulegen. Wenn Ihr KI-System den emotionalen Zustand von Kundinnen und Kunden während eines Serviceanrufs oder Video-Gesprächs analysiert, muss dies offengelegt werden — vor Beginn der Analyse.
4. Was gilt als ausreichende Offenlegung? Die KI-Verordnung schreibt keine genaue Formulierung vor. Maßstab ist, dass eine verständige Person erkennen kann, dass sie mit einem KI-System interagiert. Eine klare Aussage zu Beginn der Interaktion ist der rechtssicherere Weg.
Die Transparenzpflicht gilt unabhängig vom Risikoniveau des KI-Systems. Auch ein Chatbot mit minimalem Risiko unterliegt Art. 50. Für Unternehmen mit KI im Kundenservice empfehlen wir unseren Leitfaden zu KI im Kundenservice und Compliance.
DSGVO und AI Act: Wo die Pflichten sich überschneiden
KI-Verordnung und DSGVO gelten nebeneinander. Für Unternehmen in Deutschland, die bereits der DSGVO unterliegen, entsteht durch den AI Act eine zweite Compliance-Schicht.
Automatisierte Entscheidungen: Art. 22 DSGVO schützt Betroffene vor rein automatisierten Entscheidungen mit rechtlichen oder erheblich beeinträchtigenden Auswirkungen. Der AI Act ersetzt Art. 22 nicht — er fügt eigene Pflichten für die eingesetzten KI-Systeme hinzu.
Auftragsverarbeitung und Vertragsgestaltung: Wer KI über einen Drittanbieter einsetzt, benötigt in der Regel einen Auftragsverarbeitungsvertrag (AVV) nach DSGVO. Die Betreiberpflichten nach Art. 25–26 KI-VO müssen nun zusätzlich in diesen Verträgen abgebildet werden. Standard-AVV-Vorlagen sind häufig nicht ausreichend.
Datenschutz-Folgenabschätzungen: Eine DSFA nach DSGVO ist häufig schon erforderlich, wenn KI-Systeme personenbezogene Daten mit hohem Risiko verarbeiten. Wo zugleich Hochrisiko-KI nach dem AI Act vorliegt, können beide Bewertungen kombiniert werden — müssen aber beide vollständig durchgeführt werden.
Datensparsamkeit beim KI-Training: Wer KI-Modelle mit Personendaten trainiert oder fine-tuned, unterliegt den Datenvorgaben nach Art. 10 KI-VO — die inhaltlich mit dem DSGVO-Grundsatz der Datensparsamkeit übereinstimmen, aber zusätzliche Anforderungen an Datenqualität und Bias-Prüfung hinzufügen.
Für den Einsatz von KI zur Mitarbeiterüberwachung — der sich an der Schnittstelle von Hochrisiko-KI nach AI Act, DSGVO und Betriebsverfassungsrecht (§ 87 BetrVG) bewegt — lesen Sie unseren Leitfaden zu KI-Mitarbeiterüberwachung in Deutschland.
Bußgelder und Durchsetzung in Deutschland
Das vollständige Bußgeldregime der KI-Verordnung tritt ab dem 2. August 2026 in Kraft:
| Verstoßkategorie | Maximales Bußgeld |
|---|---|
| Verbotene KI (Art. 5) | 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes |
| Verstöße gegen Hochrisiko-KI-Pflichten | 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes |
| Falsche Angaben gegenüber Behörden | 7,5 Millionen Euro oder 1 % des weltweiten Jahresumsatzes |
Bei KMU und Start-ups gilt in der Regel der prozentuale Wert, wenn dieser niedriger ist als der absolute Betrag.
Durchsetzung in Deutschland: Die Bundesnetzagentur (BNetzA) ist als nationale Marktüberwachungsbehörde für den AI Act in Deutschland für die meisten Sektoren benannt. Das Europäische KI-Büro koordiniert auf EU-Ebene. Datenschutzaufsichtsbehörden der Länder können tätig werden, soweit AI-Act-Verstöße die DSGVO berühren.
Die BNetzA hat einen abgestuften Durchsetzungsansatz signalisiert — mit Fokus auf die schwerwiegendsten Verstöße (verbotene KI, Hochrisiko-KI ohne Konformitätsbewertung) vor der Verfolgung von Transparenzverstößen. Compliance-Planung auf Basis der Durchsetzungstoleranz ist jedoch keine tragfähige Strategie. Der 2. August 2026 ist ein verbindliches Rechtsdatum.
Branchenspezifische Leitfäden zum AI Act
Die Anforderungen des AI Act unterscheiden sich je nach Branche — insbesondere durch die Sektorbezüge in Anhang III. Weiterführende Informationen für Ihre Branche:
- AI Act für Finanzdienstleister in Deutschland
- AI Act für das Gesundheitswesen
- AI Act für die Automobilindustrie
- AI Act für den Einzelhandel und E-Commerce
- AI Act für Versicherungsunternehmen
- AI Act für Telekommunikationsunternehmen
Was jetzt zu tun ist
Für die meisten Unternehmen in Deutschland ergibt sich folgende Prioritätenreihenfolge:
- Inventarisieren — Compliance lässt sich nicht planen, wenn keine vollständige KI-Übersicht vorliegt
- Klassifizieren — Verbotene KI hätte bereits seit Februar 2025 abgeschaltet sein müssen
- Hochrisiko-KI zuerst angehen — Konformitätsbewertungen brauchen Zeit; jetzt beginnen
- Transparenzhinweise für kundenseitige KI einführen — Art. 50 ist vergleichsweise rasch umsetzbar und liefert ein sichtbares Compliance-Signal
- Verträge mit KI-Anbietern aktualisieren — AVV-Aktualisierung und AI-Act-Betreiberpflichten gemeinsam angehen
- Governance dokumentieren — Risikokontrollen sind sowohl Rechtspflicht als auch Verteidigung in Aufsichtsverfahren
Compound Law begleitet Unternehmen bei der Umsetzung des EU AI Act — von der ersten KI-Inventarisierung und Risikoklassifizierung über die Vertragsgestaltung mit Anbietern bis zur laufenden Compliance-Dokumentation. Dieser Leitfaden ist allgemeine rechtliche Information; konkrete Situationen erfordern individuelle Rechtsberatung.