EU AI Act Medien & Unterhaltung: Compliance-Leitfaden 2026
Die Medien- und Unterhaltungsbranche gehört zu den KI-intensivsten Wirtschaftszweigen Deutschlands — von KI-generierten Texten und Synchronstimmen bis zu Empfehlungsalgorithmen bei ARD Mediathek, RTL+ und Spotify. Der EU AI Act ist für deutsche Medienunternehmen seit August 2024 geltendes Recht, und die entscheidenden Fristen 2025/2026 sind bereits aktiv. Dieser Leitfaden erklärt, welche Pflichten konkret gelten, wo Risiken lauern und welche Schritte Sie jetzt tun müssen.
Was der EU AI Act für Medien bedeutet — die Kurzfassung
Die meisten KI-Anwendungen in der Medienbranche fallen unter geringes Risiko. Produktions-KI, Schnittwerkzeuge, Musik-Mastering, SEO-Optimierung — keine besonderen Pflichten, nur Basisdokumentation. Aber synthetische Inhalte und Empfehlungsalgorithmen unterliegen spezifischen Transparenzpflichten nach Artikel 50 des AI Act, die unabhängig vom Risikoniveau gelten.
Das entscheidende Datum für die meisten Medienunternehmen: August 2026, wenn die vollständigen Hochrisiko-Anforderungen in Kraft treten. GPAI-Regeln für Anbieter großer KI-Modelle gelten bereits seit August 2025.
Synthetische Inhalte und Deepfakes: Die schärfsten Pflichten
Kennzeichnungspflicht nach Artikel 50 AI Act
Artikel 50 des EU AI Act schreibt vor, dass KI-generierte oder KI-manipulierte Inhalte erkennbar als solche gekennzeichnet werden müssen — maschinenlesbar und für Endnutzer erkennbar. Diese Pflicht gilt seit Februar 2025 für verbotene Praktiken und ist für synthetische Inhalte direkt anwendbar.
Konkret betroffen sind:
- KI-generierte Bilder, Videos und Audiodateien — wenn sie mit echten Inhalten verwechselt werden könnten
- Deepfakes von realen Personen — insbesondere Politiker, Prominente, Journalisten
- KI-erzeugte Synchronstimmen — für Dokumentationen, Werbung, Podcasts
- KI-generierte Nachrichtenartikel oder Pressetexte
- Synthetisch generierte Social-Media-Inhalte
Die Kennzeichnungspflicht gilt auch dann, wenn der fertige Inhalt professionell klingt oder aussieht. „Das merkt man sowieso nicht” ist keine rechtliche Verteidigung. Weitere Details zu den Anforderungen für Bildgenerierung finden Sie in unserem KI-Bildgenerierung Compliance-Leitfaden und für Videoinhalte im KI-Videogenerierung Compliance-Leitfaden.
Wann entfällt die Kennzeichnungspflicht?
Für offensichtliche Fiktion oder künstlerische Werke, bei denen klar ist, dass keine reale Darstellung vorliegt, sind die Anforderungen deutlich leichter. Ein Animationsfilm, der vollständig KI-generierte Charaktere zeigt, oder ein satirischer Kurzfilm braucht keine technische Metadaten-Einbettung — aber eine kurze Offenlegung im Kontext ist dennoch empfehlenswert.
Entscheidend ist der Kontext: Ein Nachrichtenbeitrag mit KI-generiertem B-Roll-Material muss anders behandelt werden als ein eindeutig fiktionales KI-Kunstprojekt.
Deepfakes und Persönlichkeitsrechte
Neben dem AI Act gelten in Deutschland das allgemeine Persönlichkeitsrecht (§ 823 BGB) und das Kunsturhebergesetz (KUG). Deepfakes von erkennbaren Personen ohne Einwilligung können zivilrechtliche Haftung auslösen — unabhängig von KI-Regulierung. Medienunternehmen, die mit synthetischen Darstellungen arbeiten, sollten diese Rechtsebenen zusammen prüfen.
Empfehlungsalgorithmen: Wann wird’s ernst?
Standard-Plattformen — geringes Risiko
Content-Empfehlungssysteme — welche Artikel zeigen, welche Folgen vorschlagen, welche Musik spielen — sind unter dem AI Act generell geringes Risiko. Sie personalisieren Erfahrungen, treffen aber keine Entscheidungen, die Grundrechte unmittelbar beeinflussen.
Anforderungen für Standard-Medienplattformen:
- Grundlegende Systemdokumentation
- Transparenz gegenüber Nutzern, dass Empfehlungen algorithmisch erzeugt werden
- Opt-out-Möglichkeit für Profilbildung (DSGVO-Pflicht, die mit dem AI Act zusammenspielt)
Sehr große Online-Plattformen (VLOPs) — höhere Pflichten
Für Plattformen mit über 45 Millionen monatlichen Nutzern in der EU (VLOPs unter dem Digital Services Act) gelten erheblich schärfere Anforderungen, die sich mit dem AI Act überschneiden:
- Systemische Risikobewertungen für KI-gesteuerte Kuratierung
- Transparenz über algorithmische Ranking-Parameter
- Maßnahmen gegen Desinformationsrisiken durch Empfehlungen
- Jährliche unabhängige Audits
Für den deutschen Markt betrifft das vor allem Dienste wie YouTube, TikTok, Instagram — nicht typischerweise nationale Medienangebote wie ARD oder RTL+. Aber auch diese sollten die DSA-Schwellenwerte im Blick behalten.
Die Wechselwirkungen zwischen AI Act und DSA sind komplex — mehr dazu in unserem Leitfaden zur KI-Content-Moderation-Compliance.
KI in der Nachrichtenproduktion
Redaktionen in Deutschland setzen KI zunehmend für Zusammenfassungen, Übersetzungen, Datenjournalismus und automatisierte Berichte ein (z. B. Sportergebnisse, Börsennachrichten). Das ist grundsätzlich erlaubt, aber zwei Punkte sind kritisch:
1. Kennzeichnung KI-generierter Texte: Wenn ein Artikel substantiell von KI verfasst wurde, empfehlen Presserat und AI Act Transparenz. Der Deutsche Presserat hat 2024 Hinweise verabschiedet — KI-Unterstützung sollte offengelegt werden, insbesondere wenn sie inhaltsprägend ist.
2. Halluzinationsrisiken: Redaktionelle Haftung bleibt bestehen. Wenn KI falsche Fakten generiert und diese publiziert werden, haftet das Medienunternehmen — nicht der KI-Anbieter. Robuste redaktionelle Prüfprozesse sind Pflicht, nicht Option.
KI in der Musikproduktion und im Audio-Bereich
KI-gestützte Musikproduktion — Mastering, Sound-Design, KI-generierte Jingles für Werbung — fällt unter geringes Risiko. Aber:
- KI-erzeugte Musik mit Stimmklonen von Künstlern ohne Einwilligung ist rechtlich riskant (Urheberrecht, Persönlichkeitsrechte)
- Transparenz bei Werbung mit KI-generierten Stimmen: Art. 50 gilt, Kennzeichnung empfohlen
- Streaming-Metadaten: ISRC und Urheberrechtszuordnung bei KI-Musik sind branchenrechtlich noch ungeklärt — hier laufen Verfahren bei der GEMA
Werbung und Marketing-KI in Medienunternehmen
Programmatic Advertising ist KI-gesteuert und generell geringes Risiko unter dem AI Act. Aber KI-basiertes Behavioral Targeting kreuzt sich mit der DSGVO — Einwilligung, berechtigtes Interesse und Transparenz müssen konsistent sein.
KI-generierte Werbemittel (Bilder, Videos, Texte) brauchen Kennzeichnung nach Artikel 50, wenn sie täuschend wirken könnten. Für Werbung, die klar als Werbung erkennbar ist, sind die Anforderungen leichter.
GPAI-Modelle in Medienproduktion: Wer haftet?
Medienunternehmen, die General Purpose AI (GPAI)-Modelle — wie GPT-4o, Gemini oder Claude — für Produktionszwecke nutzen, sind in der Regel Deployer, nicht Anbieter. Das bedeutet:
- Der Modellanbieter (OpenAI, Google, Anthropic) trägt die Hauptpflichten als Anbieter
- Das Medienunternehmen muss sicherstellen, dass es das Modell zweckgemäß und transparent einsetzt
- Bei erheblichen Modifikationen oder Fine-Tuning auf eigenen Daten können Sie zum Anbieter werden — mit allen Hochrisiko-Pflichten, falls der Einsatzfall hochriskant ist
Die GPAI-Regeln gelten seit August 2025. Anbieter von GPAI-Modellen mit systemischem Risiko (Modelle mit über 10^25 FLOP Training) unterliegen zusätzlichen Sicherheitspflichten.
Praktische Compliance-Schritte für Medienunternehmen
Sofort (April 2026)
- KI-Inventar erstellen: Erfassen Sie alle eingesetzten KI-Tools und -Modelle nach Funktion und Einsatzbereich
- Synthetische Inhalte auflisten: Welche Inhalte werden KI-gestützt generiert? Gibt es aktuelle Kennzeichnungsprozesse?
- Kennzeichnungs-Workflow implementieren: Redaktionelle Workflows anpassen, damit KI-Inhalte konsequent markiert werden
- Verträge mit KI-Anbietern prüfen: Wer ist für was verantwortlich? GPAI-Verträge müssen AI Act-konforme Nutzungsbedingungen enthalten
Vor August 2026
- Hochrisiko-Prüfung: Nutzen Sie KI für Personalentscheidungen im Unternehmen, Kreditentscheidungen, oder ähnliche hochrisiko-Bereiche? Diese brauchen volle Compliance
- Datenschutz-KI-Koordination: DSGVO-Datenschutzfolgenabschätzungen für KI-Systeme mit personenbezogenen Daten aktualisieren
- Interne Schulungen: Redaktionelle Teams zu KI-Kennzeichnungspflichten schulen
Besonderheiten für öffentlich-rechtliche Medien
ARD, ZDF und Landesrundfunkanstalten haben als Körperschaften des öffentlichen Rechts besondere Transparenzpflichten — sowohl aus AI Act als auch aus dem Medienstaatsvertrag und Rundfunkstaatsvertrag. KI-gestützter Inhalt im öffentlich-rechtlichen Rundfunk unterliegt redaktionellen Standards, die über kommerzielle Anforderungen hinausgehen. Eine proaktive Offenlegungspolitik ist hier nicht nur rechtlich, sondern auch publizistisch geboten.
So hilft Compound Law
- KI-Inventar und Klassifizierung für Ihren Medienbetrieb
- Synthetische-Inhalte-Kennzeichnungs-Frameworks und Workflows
- Redaktionelle Richtlinien zu KI-Nutzung und Transparenz
- Vertragsgestaltung mit KI-Anbietern (GPAI-Deployer-Pflichten)
- DSA- und AI-Act-Koordination für Plattformbetreiber
- IP- und Persönlichkeitsrechts-Beratung bei KI-Synthetic Media
Häufig gestellte Fragen
Brauchen KI-generierte Bilder eine Kennzeichnung?
Ja, wenn sie mit echtem Inhalt verwechselt werden könnten. Artikel 50 des AI Act verlangt maschinenlesbare Kennzeichnung und für Endnutzer erkennbare Offenlegung. Offensichtliche Fiktion oder künstlerische Werke haben leichtere Anforderungen, aber eine redaktionelle Offenlegung ist generell empfehlenswert.
Sind Empfehlungsalgorithmen nach dem AI Act reguliert?
Standard-Empfehlungssysteme sind geringes Risiko und brauchen nur Basisdokumentation. Sehr große Plattformen mit über 45 Millionen EU-Nutzern unterliegen zusätzlichen Pflichten nach dem Digital Services Act, der mit dem AI Act zusammenspielt.
Was ist mit KI-Stimmen für Synchronisation und Podcasts?
Transparenz ist erforderlich. Zuschauer und Hörer sollten wissen, dass Stimmen KI-generiert sind — in der Regel durch einen expliziten Hinweis im Kontext des Inhalts. Für Werbung gilt dies besonders streng. Für Stimmklone realer Personen brauchen Sie zusätzlich die Einwilligung der betroffenen Person.
Wann werde ich zum KI-Anbieter statt Deployer?
Wenn Sie ein GPAI-Modell erheblich modifizieren, auf eigenen Daten finetunen und dann für einen Anwendungsfall einsetzen, der hochriskant ist, können Sie rechtlich zum Anbieter werden. Standardmäßige Nutzung von APIs (OpenAI, Google Vertex, Azure OpenAI) ohne wesentliche Anpassungen macht Sie zum Deployer.
Brauche ich als Medienunternehmen einen AI Act Compliance Officer?
Der AI Act schreibt das nicht explizit vor, aber für Unternehmen mit signifikantem KI-Einsatz ist ein interner Ansprechpartner (oder externer Berater) sinnvoll — ähnlich wie ein Datenschutzbeauftragter. Öffentlich-rechtliche Sender sollten dies aus Governance-Gründen priorisieren.
Was gilt für KI-Musik, die auf GEMA-geschützten Werken trainiert wurde?
Das ist ein aktives Rechtsgebiet. Die GEMA klagt gegen KI-Anbieter; europäische und nationale Urheberrechtsfragen sind noch nicht final geklärt. Medienunternehmen sollten KI-generierte Musik mit klarer Rechtekette verwenden und Anbieter wählen, die Lizenzierungsmodelle für Trainingsdaten transparent offenlegen.
Gilt der AI Act auch für ausländische Medienunternehmen, die in Deutschland tätig sind?
Ja. Der AI Act gilt für alle KI-Systeme, die in der EU eingesetzt werden, unabhängig vom Sitz des Anbieters oder Deployers. Netflix, Disney+, Apple TV+ — alle unterliegen dem AI Act für ihre EU-Nutzer.