Azure OpenAI DSGVO und AVV: Leitfaden für Unternehmen in Deutschland
Kurzantwort
Azure OpenAI kann für deutsche Unternehmen DSGVO-konform betrieben werden, wenn EU-Datenresidenz in einer deutschen Azure-Region konfiguriert und der Auftragsverarbeitungsvertrag mit Microsoft abgeschlossen ist — allerdings müssen Rechts- und Compliance-Teams AVV-Umfang, regionale Einstellungen, Trainings-Opt-out.
- Den Microsoft AVV abschließen und bestätigen, dass er den genutzten Azure-OpenAI-Dienst und die gewählte Region abdeckt.
- Deutschland Nord oder Deutschland West Central als Deployment-Region wählen, um Verarbeitung und Datenspeicherung in Deutschland zu halten.
- AI-Act-Risikoklasse bestimmen, HIPAA-Eignung für Gesundheitsdaten prüfen und Betriebsrat frühzeitig einbinden.
Azure OpenAI kann für deutsche Unternehmen DSGVO-konform betrieben werden — aber diese Konformität stellt sich nicht automatisch ein. Rechts- und Compliance-Teams müssen den AVV-Umfang prüfen, EU-Datenresidenz in einer deutschen Azure-Region konfigurieren, verstehen, welche Telemetriedaten Deutschland verlassen können, die AI-Act-Risikoklasse für den geplanten Einsatz bestimmen und Betriebsratspflichten klären, bevor der Betrieb aufgenommen wird. Einen Überblick über weitere Enterprise-KI-Plattformen bietet die KI-Tool-Übersicht von Compound Law.
Betriebsratsanforderungen
In Deutschland kann der Einsatz von Azure OpenAI im Unternehmen Mitbestimmungsrechte des Betriebsrats nach dem Betriebsverfassungsgesetz (BetrVG) auslösen. Dies ist keine Kann-Bestimmung: Wird ein KI-Tool ohne Beteiligung des Betriebsrats eingeführt, obwohl Mitbestimmungsrechte bestehen, kann der Betriebsrat per einstweiliger Verfügung den Einsatz untersagen lassen.
Wann greifen Mitbestimmungsrechte:
- § 87 Abs. 1 Nr. 6 BetrVG — Technische Einrichtungen, die geeignet sind, das Verhalten oder die Leistung der Arbeitnehmerinnen und Arbeitnehmer zu überwachen. Wenn Azure OpenAI Eingaben von Beschäftigten protokolliert, Nutzungsmuster aufzeichnet oder Berichte über individuelle Aktivitäten erzeugt, greift diese Bestimmung sehr wahrscheinlich.
- § 87 Abs. 1 Nr. 13 BetrVG — Grundlegende Änderungen von Arbeitsverfahren und Arbeitsabläufen. Der Einsatz von KI-Tools, der die Arbeitsweise von Beschäftigten wesentlich verändert, kann zustimmungspflichtig sein.
- § 26 BDSG — Verarbeitung personenbezogener Daten von Beschäftigten. Wenn Azure OpenAI im Rahmen von HR-Analysen, Leistungsbeurteilungen oder Kommunikationstools auf Mitarbeiterdaten zugreift, gelten die engeren Voraussetzungen des Bundesdatenschutzgesetzes zusätzlich zur DSGVO.
Praktisches Vorgehen:
- Alle Einsatzszenarien identifizieren, die Beschäftigte betreffen — etwa Kundenservice-Mitarbeitende mit KI-Copiloten, HR-Teams mit KI-gestützter Dokumentenprüfung oder Entwicklerinnen und Entwickler mit Code-Completion-Funktionen.
- Eine Betriebsvereinbarung aushandeln, die zulässige Anwendungsfälle, verarbeitete Datenkategorien, Transparenzrechte der Beschäftigten und Überwachungsgrenzen festlegt.
- Protokollierungskonfigurationen und Zugriffskontrollen dem Betriebsrat offen legen.
- Falls Microsoft 365 Copilot parallel zu Azure OpenAI eingesetzt wird, sollte die Betriebsratsberatung beide Tools einschließen — siehe Microsoft 365 Copilot Compliance.
Ist Azure OpenAI DSGVO-konform?
Die kurze Antwort lautet ja — unter den richtigen Voraussetzungen. Azure OpenAI kann so eingesetzt werden, dass die Anforderungen der DSGVO (Verordnung (EU) 2016/679) erfüllt werden, sofern drei Bedingungen vorliegen:
- Der Microsoft Auftragsverarbeitungsvertrag (AVV) ist abgeschlossen. Er begründet Microsoft als Auftragsverarbeiter nach Art. 28 DSGVO und regelt Sicherheit, Subunternehmer, Meldepflichten und Datenlöschung.
- EU-Datenresidenz ist konfiguriert. Deutschland Nord oder Deutschland West Central muss als Deployment-Region gewählt werden, damit Inferenz und Datenspeicherung in Deutschland verbleiben.
- Eine geeignete Rechtsgrundlage liegt vor. Typischerweise Art. 6 Abs. 1 lit. b DSGVO (Vertragserfüllung) oder Art. 6 Abs. 1 lit. f DSGVO (berechtigte Interessen) für interne Anwendungsfälle — oder eine Einwilligung, soweit erforderlich.
Was Azure OpenAI im DSGVO-Kontext von direkten OpenAI-API-Produkten unterscheidet, ist entscheidend: Microsoft bestätigt ausdrücklich, dass an Azure OpenAI übermittelte Daten nicht zum Training oder zur Verbesserung der zugrundeliegenden OpenAI-Modelle verwendet werden. Damit entfällt das Trainings-Daten-Risiko, das direkte Verbraucher-OpenAI-Produkte für den Unternehmensbetrieb unter der DSGVO problematisch macht.
Hinweis zur Abgrenzung von Microsoft 365 Copilot: Azure OpenAI als API-Dienst und Microsoft 365 Copilot (das KI-Assistenzsystem in Office-Produkten) sind rechtlich unterschiedlich zu bewerten. Beide greifen auf Azure-OpenAI-Modelle zurück, unterscheiden sich aber in Verarbeitungslogik, Protokollierung und dem zugrunde liegenden Vertragsrahmen. Unternehmen, die beide Produkte einsetzen, sollten die Compliance-Prüfung für jeden Dienst separat durchführen.
Auftragsverarbeitungsvertrag (AVV) mit Microsoft
Der Microsoft AVV ist das vertragliche Fundament jedes DSGVO-konformen Azure-OpenAI-Betriebs. Er ist in die Microsoft-Produktbedingungen integriert und gilt, sobald die Online Services-Bedingungen akzeptiert werden — Rechtsabteilungen sollten den Umfang jedoch aktiv prüfen und nicht von einer automatischen Abdeckung ausgehen.
Wo der AVV zu finden und zu akzeptieren ist: Im Microsoft Azure-Portal unter dem Bereich Compliance der jeweiligen Subscription. Enterprise-Kunden mit einem Microsoft Enterprise Agreement (EA) sollten sicherstellen, dass Azure OpenAI — und nicht nur Azure generell — im vereinbarten Service-Scope des EA abgedeckt ist.
Wesentliche Regelungsinhalte des Microsoft AVV:
- Art. 28 DSGVO-Auftragsverarbeitungspflichten — Microsoft verpflichtet sich, personenbezogene Daten nur auf dokumentierte Weisung des Verantwortlichen hin zu verarbeiten.
- Subunternehmer — Microsoft veröffentlicht eine Subunternehmerliste und informiert über Ergänzungen; ein Widerspruchsrecht des Kunden besteht.
- Technisch-organisatorische Maßnahmen (TOM) — Die Sicherheitsmaßnahmen sind im Online Services Security Addendum beschrieben.
- Meldung von Datenpannen — Microsoft verpflichtet sich zur unverzüglichen Meldung von Sicherheitsvorfällen, die Kundendaten betreffen.
- Prüfrechte — Der Verantwortliche kann die Einhaltung der Datenschutzanforderungen durch Microsoft selbst oder durch beauftragte Dritte prüfen.
- Datenlöschung — Nach Vertragsende verpflichtet sich Microsoft zur Löschung oder Rückgabe der Kundendaten innerhalb definierter Fristen.
Pflichten des Verantwortlichen nach Art. 28 DSGVO: Als Verantwortlicher trägt Ihr Unternehmen die Pflicht, Zweck und Rechtsgrundlage der Verarbeitung zu dokumentieren, ein Verzeichnis von Verarbeitungstätigkeiten (VVT) zu führen, das Azure OpenAI als eingesetztes Tool ausweist, und sicherzustellen, dass Nutzerinnen und Nutzer keine Daten übermitteln, die außerhalb des dokumentierten Verarbeitungszwecks liegen. Für Teams, die Anwendungen auf Basis von Azure OpenAI entwickeln, enthält der Leitfaden zur Compliance bei KI-Code-Generierung Hinweise zu Art.-28-Pflichten im Entwicklungskontext.
EU-Datenresidenz: Deutsche Azure-Regionen
Datenresidenz ist eine Konfigurationsentscheidung, keine Standardeinstellung. Azure OpenAI unterstützt zwei deutsche Regionen:
- Deutschland Nord — Standort Hamburg
- Deutschland West Central — Standort Frankfurt am Main
Durch die Wahl einer dieser Regionen verbleiben Modellinferenz und gespeicherte Daten unter Standardbetrieb innerhalb Deutschlands. Dies ist die stärkste verfügbare Datenresidenzoption für DSGVO-Zwecke und vermeidet das Drittlandübermittlungsrisiko nach Kapitel V DSGVO, das entsteht, wenn Daten die EU verlassen.
Rechtsabteilungen sollten dennoch vier separate Residenzfragen prüfen:
| Datenkategorie | Verhalten in der deutschen Region | Was zu prüfen ist |
|---|---|---|
| Inferenz (Prompts und Antworten) | Verbleib in der gewählten Region unter Standard-API-Nutzung | Sicherstellen, dass Kreuz-Regions-Inferenz-Features deaktiviert sind |
| Gespeicherte Fine-Tuned-Modelle | Verbleib in der gewählten Region | Prüfen, ob Fine-Tuning- und Anpassungsworkloads im Scope liegen |
| Telemetrie und Missbrauchsüberwachung | Kann außerhalb Deutschlands verarbeitet werden | Aktuelle Microsoft-Telemetriedokumentation prüfen |
| Kundensupport-Daten | Support-Interaktionen können nicht-EU-Mitarbeitenden zugänglich sein | Support-Tier und Datenbehandlungskonditionen prüfen |
Was Deutschland verlassen kann: Microsoft weist darauf hin, dass bestimmte Dienstqualitäts- und Missbrauchsüberwachungssignale außerhalb der Deployment-Region verarbeitet werden können. Dies ist der wesentliche Residenzvorbehalt für Azure OpenAI. Für die meisten Enterprise-Anwendungsfälle umfasst diese Telemetrie keine Prompt- oder Antwortinhalte — Rechtsabteilungen sollten dies jedoch anhand der aktuellen Microsoft-Dokumentation bestätigen und ggf. in der Datenschutz-Folgenabschätzung (DSFA) festhalten.
Vergleich mit Alternativen: AWS Bedrock bietet Frankfurt und Irland als EU-Regionen; Google Vertex AI bietet EU-Regionen einschließlich Frankfurt. Die deutschlandspezifische Option von Azure OpenAI — insbesondere Deutschland West Central in Frankfurt — wird von deutschen Unternehmen häufig bevorzugt, wenn in Verträgen oder regulatorischen Meldungen ein konkreter deutscher Datenspeicherort nachzuweisen ist. Einen detaillierten Vergleich der EU-Residenzpositionierung bietet der AWS Bedrock DSGVO-Leitfaden.
HIPAA-Eignung
Azure OpenAI ist auf Microsofts Compliance-Seite als HIPAA-fähiger Dienst aufgeführt. Das bedeutet, er kann in einen Microsoft Business Associate Agreement (BAA) aufgenommen werden — die vertragliche Anforderung des US-amerikanischen Health Insurance Portability and Accountability Act für die Verarbeitung geschützter Gesundheitsinformationen (Protected Health Information, PHI).
Bedeutung für Deutschland: HIPAA ist ein US-Bundesgesetz, relevant für deutsche Unternehmen im Gesundheitswesen, die international tätig sind, Patientendaten für US-Kunden verarbeiten oder ihre Datenschutzpositionen an internationalen Gesundheitsstandards ausrichten. Das deutsche Gesundheitswesen wird primär durch die DSGVO zusammen mit sektorspezifischen Regelungen im Sozialgesetzbuch (SGB V, X) und dem Patientendaten-Schutz-Gesetz (PDSG) geregelt. Die HIPAA-BAA-Eignung ersetzt diese Anforderungen nicht, signalisiert aber ein Maß an vertraglicher Reife bei der Gesundheitsdatenverarbeitung, das eine breitere Compliance-Argumentation stützt.
Unternehmen im Gesundheitswesen, die Azure OpenAI einsetzen, sollten:
- Sicherstellen, dass der BAA als Teil des Azure Enterprise Agreements abgeschlossen ist.
- Prüfen, ob der genutzte Azure-OpenAI-Diensttier im BAA-Scope liegt.
- Eine Datenschutz-Folgenabschätzung (DSFA) nach Art. 35 DSGVO für die risikoreiche Verarbeitung von Gesundheitsdaten durchführen.
- Patientendatenflüsse kartieren, um sicherzustellen, dass keine personenbezogenen Gesundheitsdaten ohne geeignete Pseudonymisierung das Modell erreichen.
AI-Act-Pflichten
Unter dem EU AI Act (Verordnung (EU) 2024/1689) richten sich Ihre Pflichten danach, wie Sie Azure OpenAI einsetzen — nicht nach dem Modell selbst.
KI-Modelle mit allgemeinem Verwendungszweck (GPAI): Azure OpenAI basiert auf OpenAI-Grundlagenmodellen, die als GPAI-Modelle im Sinne des EU AI Act einzustufen sind. Microsoft als Distributor übernimmt Pflichten zur Transparenz und technischen Dokumentation von GPAI-Modellen. Deployer — also Unternehmen, die Anwendungen auf Basis von Azure OpenAI entwickeln — tragen eigene Pflichten abhängig von der Risikokategorie des resultierenden KI-Systems.
Risikoklassen für typische Anwendungsfälle:
- Minimales Risiko: Allgemeine Produktivität, Dokumentenentwurf, internes Q&A, Zusammenfassungen. Keine verpflichtenden Anforderungen jenseits guter Praxis.
- Begrenztes Risiko: Kundenseitige Chatbots, die mit Personen interagieren, ohne deutlich zu machen, dass es sich um KI handelt. Transparenzpflicht nach Art. 52 EU AI Act ist verpflichtend.
- Hohes Risiko: HR-Entscheidungsunterstützung, Kreditwürdigkeitsbewertung, Unterstützung bei medizinischen Diagnosen, Bildungsbewertungen. Umfangreiche Dokumentation, menschliche Aufsicht, Genauigkeitsanforderungen und Registrierung in der EU-Datenbank sind vorgeschrieben.
Für Unternehmen im Finanzsektor empfiehlt sich der Leitfaden zur KI-Regulierung im Finanzbereich. Für sicherheitskritische KI-Anwendungen bietet der KI-Cybersecurity-Compliance-Leitfaden weiterführende Hinweise.
Deployment-Checkliste für Azure OpenAI
Für Rechts-, Sicherheits- und Beschaffungsteams vor der Freigabe eines Azure-OpenAI-Einsatzes:
- Microsoft AVV akzeptieren — Bestätigen, dass das Datenschutzaddendum unter Ihrer Azure-Subscription aktiv ist und Azure OpenAI abdeckt.
- Deployment-Region festlegen — Deutschland Nord oder Deutschland West Central für alle produktiven Workloads mit personenbezogenen Daten wählen.
- Datenflussanalyse durchführen — Erfassen, welche personenbezogenen Datenkategorien an Azure OpenAI übermittelt werden, auf welcher Rechtsgrundlage und zu welchem Zweck.
- Training-Opt-out dokumentieren — Die vertragliche Microsoft-Zusicherung, dass Kundendaten nicht zum Modelltraining genutzt werden, im Verarbeitungsverzeichnis festhalten.
- AI-Act-Risikoklasse bestimmen — Jeden Anwendungsfall nach dem AI-Act-Risikorahmen klassifizieren und entsprechende Pflichten ableiten.
- HIPAA-Eignung prüfen — Bei Gesundheitsdaten sicherstellen, dass der BAA abgeschlossen ist und der Diensttier im Scope liegt.
- Betriebsrat einbinden — Wenn beschäftigtenbezogene Daten verarbeitet werden oder beschäftigtenseitige Tools eingesetzt werden, die Betriebsratsberatung vor dem Rollout starten.
- Nutzungsrichtlinie entwickeln — Festlegen, was Mitarbeitende an Azure OpenAI übermitteln dürfen und was nicht; dies über Schulungen kommunizieren.
- Compliance-Entscheidung dokumentieren — DSFA-Ergebnis (soweit erforderlich), Betriebsvereinbarung und Rechtsgrundlage im KI-Governance-Framework festhalten.
So hilft Compound Law
Compound Law unterstützt deutsche und DACH-Unternehmen bei:
- AVV-Prüfung und Gap-Analyse — Überprüfung, ob Umfang, Subunternehmerliste und Prüfrechte des Microsoft Auftragsverarbeitungsvertrags Ihre spezifischen Anforderungen erfüllen.
- Beratung zur EU-Datenresidenz — Überprüfung der technischen und vertraglichen Konfiguration, um korrekte Implementierung und Dokumentation der deutschen Region zu bestätigen.
- AI-Act-Risikoklassifikation — Zuordnung von Azure-OpenAI-Anwendungsfällen zu den EU-AI-Act-Risikokategorien und Beratung zu Pflichten wie Transparenz, menschliche Aufsicht und GPAI-Dokumentation.
- Betriebsratsstrategie — Erstellung von Betriebsvereinbarungen und Begleitung von Mitbestimmungsverfahren für KI-Tool-Deployments.
- Nutzungsrichtlinien-Entwicklung — Erstellung interner Richtlinien zu zulässigen Anwendungsfällen, Datenverarbeitungsregeln und Schulungsanforderungen.
- DSFA-Durchführung — Prüfung, ob eine Datenschutz-Folgenabschätzung erforderlich ist, und Begleitung bei der Erstellung.
Häufig gestellte Fragen
Ist Azure OpenAI DSGVO-konform?
Azure OpenAI kann von deutschen Unternehmen DSGVO-konform genutzt werden, wenn der Microsoft Auftragsverarbeitungsvertrag abgeschlossen ist, die EU-Datenresidenz in der Region Deutschland Nord oder Deutschland West Central konfiguriert wurde und eine geeignete Rechtsgrundlage nach Art. 6 DSGVO und Art. 28 DSGVO vorliegt.
Gibt es einen Auftragsverarbeitungsvertrag (AVV) für Azure OpenAI?
Ja. Microsoft stellt einen AVV über die Microsoft-Produktbedingungen und das Datenschutzaddendum bereit. Kunden müssen diese Bedingungen akzeptieren, um eine wirksame Auftragsverarbeitungsbeziehung nach Art. 28 DSGVO zu begründen. Der AVV erfasst Subunternehmer, Sicherheitsmaßnahmen, Meldepflichten bei Datenpannen, Prüfrechte und Datenlöschung.
Kann ich Azure OpenAI in Deutschland nutzen?
Ja. Azure OpenAI bietet die Regionen Deutschland Nord und Deutschland West Central an. Durch die Wahl dieser Regionen verbleiben Inferenz und gespeicherte Daten unter Standardbedingungen innerhalb Deutschlands — dies ist die stärkste verfügbare Datenresidenzoption für DSGVO-Zwecke.
Werden meine Daten zum Training von OpenAI-Modellen genutzt?
Nein. Microsoft bestätigt ausdrücklich, dass an Azure OpenAI übermittelte Daten nicht zum Training oder zur Verbesserung von OpenAI-Grundlagenmodellen verwendet werden. Dies ist ein wesentlicher rechtlicher Unterschied zur direkten Nutzung der Verbraucher- oder API-Produkte von OpenAI.
Erfüllt Azure OpenAI die HIPAA-Anforderungen?
Azure OpenAI ist als HIPAA-fähiger Dienst auf Microsofts Compliance-Seite aufgeführt und kann in einen Business Associate Agreement (BAA) einbezogen werden. Unternehmen im deutschen Gesundheitswesen sollten sicherstellen, dass der BAA abgeschlossen ist und der genutzte Diensttier im Scope liegt — zusätzlich zu den Anforderungen aus DSGVO und Sozialgesetzbuch.