KI-APIs für Kanzleien in Deutschland
compliance

KI-APIs für Kanzleien in Deutschland: Compliance-Guide

Kurzantwort

Kanzleien in Deutschland dürfen KI-APIs wie OpenAI API, Anthropic API oder Azure OpenAI grundsätzlich nutzen, wenn Mandatsdaten, Verschwiegenheit, § 43e BRAO, DSGVO, Zugriffskontrolle und menschliche Endkontrolle sauber geregelt sind.

  • Berufsrecht und Datenschutz müssen vor dem Rollout gemeinsam geprüft werden.
  • Für Mandatsdaten zählen Vertragslage, Datenflüsse, Rollenmodell und Protokollierung.
  • Die meisten Kanzlei-Workflows sind nicht automatisch Hochrisiko nach dem EU AI Act.

KI-APIs für Kanzleien sind in Deutschland grundsätzlich zulässig, aber nicht im Autopilot. Wer OpenAI API, Anthropic API oder Azure OpenAI in einer Kanzlei oder Rechtsabteilung einsetzen will, muss Mandatsgeheimnisse, § 43e BRAO, DSGVO, Zugriffskontrolle, Vendor-Verträge und menschliche Endprüfung zusammen denken. Für viele typische Kanzlei-Workflows ist das rechtlich vertretbar. Für unkontrollierte Eingaben sensibler Mandatsdaten oder automatisierte rechtliche Entscheidungen ohne Aufsicht ist es das regelmäßig nicht.

Die relevante Leitplanke ist nicht nur der EU AI Act, sondern vor allem das Zusammenspiel aus anwaltlicher Verschwiegenheit, Berufsrecht, Datenschutzrecht und dem konkreten technischen Setup. Die BRAK weist in ihrem Leitfaden vom Dezember 2024 ausdrücklich darauf hin, dass Kanzleien bei externen KI-Dienstleistern insbesondere Geheimnisschutz, Vertragsinhalt nach § 43e BRAO, Datenschutz und Transparenz sauber adressieren müssen.

Kurzantwort: Dürfen Kanzleien OpenAI API, Anthropic API oder Azure OpenAI nutzen?

Ja, Kanzleien dürfen KI-APIs nutzen, wenn der Einsatz auf einen rechtlich belastbaren Rahmen gestellt wird. Dazu gehören insbesondere:

  • saubere Datenklassifizierung vor jeder API-Anbindung
  • vertragliche Absicherung des Dienstleisters
  • technische und organisatorische Zugriffskontrollen
  • klare Mitarbeiterregeln für Prompts, Freigaben und Logging
  • menschliche Kontrolle aller rechtlich relevanten Outputs

Nicht jede Nutzung ist gleich riskant. Ein internes Entwurfs- oder Recherche-Setup ohne personenbezogene Mandatsdaten ist anders zu bewerten als ein produktiver Workflow, in dem Schriftsätze, Due-Diligence-Unterlagen oder interne Untersuchungen automatisiert verarbeitet werden.

AnbieterFür Kanzleien oft attraktivVor Freigabe zu prüfen
OpenAI APIStarke Modellqualität, DPA verfügbar, europäische Datenresidenz für bestimmte API-Projekte dokumentiertRegion, Retention, Unterauftragsverarbeiter, Logging, Mandatsdatenfreigabe
Anthropic APIGute Eignung für Analyse- und Entwurfsworkflows, API-first-SetupDPA/SCC, tatsächliche Verarbeitungsorte, Subprocessor-Kette, Zugriff auf vertrauliche Daten
Azure OpenAIAzure-Tenant-Kontrollen, regionales Deployment, Integration in bestehende Enterprise-GovernanceDatenpfade, Abuse-Monitoring, Rollenmodell, Verknüpfung mit übrigen Azure-Diensten

Die Tabelle ersetzt keine Einzelfallprüfung. Sie zeigt nur, warum Vendor-Auswahl für Kanzleien keine Marketingfrage, sondern eine Compliance-Entscheidung ist.

Wann eine KI-API für Kanzleien rechtlich vertretbar ist

Die richtige Frage lautet nicht: “Ist die API compliant?” Die richtige Frage lautet: Unter welchen Bedingungen ist Ihr konkreter Use Case vertretbar?

Ein vertretbarer Einsatz liegt typischerweise eher vor, wenn:

  • nur freigegebene oder anonymisierte Daten verarbeitet werden
  • Prompts und Outputs versioniert oder protokolliert werden
  • sensible Mandatsdaten nicht unkontrolliert an externe Anbieter fließen
  • ein Anwalt oder eine Anwältin die fachliche Verantwortung behält
  • das Tool keine autonome Mandatsbearbeitung oder Mandantenkommunikation ohne Freigabe übernimmt

Rechtlich deutlich kritischer wird es, wenn ein System:

  • vollständige Aktenbestände ohne Filter verarbeitet
  • eigenständig rechtliche Bewertungen an Mandanten ausspielt
  • Ergebnisse ohne fachliche Kontrolle in Schriftsätze oder Verhandlungen einfließen lässt
  • Beschäftigtendaten oder sensible Daten in großem Umfang verarbeitet

Verschwiegenheit, Mandatsdaten und Zugriffskontrolle

Für Kanzleien ist der Ausgangspunkt die anwaltliche Verschwiegenheit. Sobald externe Dienstleister Einblick in mandatsbezogene Informationen erhalten können, stellt sich die Frage, ob die Einschaltung des Anbieters unter § 43e BRAO tragfähig organisiert ist. Die BRAK betont hierzu insbesondere:

  • sorgfältige Auswahl des Dienstleisters
  • Vertrag in Textform mit den gesetzlich geforderten Mindestinhalten
  • ausdrückliche Verpflichtung zur Verschwiegenheit
  • Sicherstellung des Grundsatzes der Zweckbindung

Bei KI-APIs bedeutet das praktisch: Sie brauchen nicht nur einen Vertrag, sondern ein Betriebsmodell, in dem klar ist, welche Daten überhaupt an die API gehen dürfen. Viele Kanzleien starten sinnvollerweise mit drei Datenklassen:

  1. frei nutzbar: allgemeine Recherche, interne Muster, nicht-mandatsbezogene Arbeitsorganisation
  2. nur nach Freigabe: pseudonymisierte Vertragsausschnitte, bereinigte Sachverhalte, nicht hochsensible Due-Diligence-Fragmente
  3. nicht extern verarbeiten: rohe Mandatsakten, Verteidigungsunterlagen, Whistleblowing-Inhalte, besonders sensible Beschäftigten- oder Gesundheitsdaten

Ohne diese Trennung wird aus einem produktiven KI-Projekt schnell ein berufsrechtliches und datenschutzrechtliches Problem.

DSGVO, AVV und Drittlandtransfers

Sobald personenbezogene Daten verarbeitet werden, läuft die Prüfung parallel unter der DSGVO. Ein AVV oder DPA ist dafür regelmäßig notwendig, aber nie ausreichend. Sie müssen zusätzlich prüfen:

  • Welche Datenkategorien werden verarbeitet?
  • Wer ist Verantwortlicher und wer Auftragsverarbeiter?
  • Wo werden Prompts, Dateien, Embeddings und Logs verarbeitet oder gespeichert?
  • Welche Unterauftragsverarbeiter sind eingebunden?
  • Bestehen Drittlandtransfers oder Zugriffsmöglichkeiten außerhalb des EWR?
  • Sind zusätzliche Schutzmaßnahmen oder Beschränkungen erforderlich?

Gerade bei Kanzleien reicht die Standardfrage “Hat der Anbieter ein DPA?” nicht aus. Relevant ist, ob Ihr konkretes Setup mit den vertraglichen Zusagen zusammenpasst. OpenAI dokumentiert für bestimmte API-Projekte eine europäische Datenresidenz. Microsoft beschreibt bei Azure OpenAI regionale und Data-Zone-Modelle. Bei jeder Architektur gilt aber: Vertragsstand und technische Realität müssen zusammenpassen.

Wenn der Use Case voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen mit sich bringt, kann zusätzlich eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO erforderlich werden. Das ist besonders naheliegend bei großvolumigen Dokumentenbeständen, sensiblen Daten oder systematischen Auswertungen.

BRAO, Berufsrecht und menschliche Kontrolle

Auch wenn ein KI-System technisch gute Ergebnisse liefert, bleibt die berufsrechtliche Verantwortung beim Rechtsanwalt oder bei der Rechtsanwältin. Das betrifft insbesondere:

  • fachliche Richtigkeit
  • Vollständigkeit und Aktualität
  • Umgang mit Halluzinationen oder Scheinzitaten
  • Mandantenkommunikation
  • Freigabe rechtlich relevanter Arbeitsergebnisse

Für die Praxis heißt das: KI-APIs dürfen in der Kanzlei häufig assistieren, aber nicht unkontrolliert entscheiden. Wer Schriftsätze, Gutachten oder Vertragsklauseln mit API-Unterstützung erstellt, braucht eine dokumentierte Review-Stufe durch qualifizierte Juristen.

Das ist auch ökonomisch sinnvoll. Die produktivsten Kanzlei-Setups ersetzen nicht den Anwalt, sondern verkürzen Recherche-, Strukturierungs- und Entwurfsarbeit bei gleichbleibender Qualitätskontrolle.

EU AI Act: Wann nur geringe Pflichten gelten und wann mehr entsteht

Der EU AI Act ist relevant, aber für Kanzleien oft nicht der schärfste Hebel. Nach dem BRAK-Leitfaden vom Dezember 2024 sind die meisten typischen Sprachmodell-Workflows in Kanzleien nicht automatisch Hochrisiko-Systeme. Trotzdem sind drei Punkte wichtig:

  • Art. 4 AI Act zur KI-Kompetenz gilt bereits seit 2. Februar 2025. Kanzleien müssen also sicherstellen, dass Mitarbeiter KI-Tools sachkundig einsetzen können.
  • Art. 50 AI Act zu Transparenzpflichten ist nach Art. 113 grundsätzlich ab 2. August 2026 anwendbar.
  • Falls ausnahmsweise ein Hochrisiko-System eingesetzt wird, treffen Betreiber weitergehende Pflichten, etwa technische und organisatorische Maßnahmen sowie ggf. Unterstützung einer DSFA.

Für die meisten Kanzleien ist daher weniger die abstrakte Hochrisiko-Debatte entscheidend als die Frage, ob Mitarbeiter geschult, Use Cases dokumentiert und menschliche Überprüfung verpflichtend gemacht wurden.

OpenAI API vs Anthropic API vs Azure OpenAI für deutsche Kanzleien

Ein pauschales “bestes Modell für Kanzleien” gibt es nicht. Die Auswahl hängt von Ihrer Risikosteuerung ab.

Datenresidenz

Wenn Sie Mandatsdaten oder personenbezogene Daten verarbeiten wollen, ist Regionierung keine Nebensache. OpenAI beschreibt europäische Datenresidenz für bestimmte API-Projekte. Microsoft bietet für Azure OpenAI regionale oder zonale Deployment-Modelle innerhalb seines Cloud-Rahmens. Bei Anthropic und anderen Anbietern sollte die tatsächliche Datenlokation, soweit für Ihren Vertrag relevant, ausdrücklich verifiziert werden.

Für die Kanzleipraxis gilt: Bevorzugen Sie, soweit technisch möglich, europäische oder deutsche Verarbeitungsmodelle, wenn sensible Daten betroffen sind. Das entspricht auch der Vorsichtslinie, die die BRAK für Auslandssachverhalte bei Geheimnisschutz und Dienstleistereinsatz nahelegt.

Vertragslage, AVV und DPA

Eine gute Vendor-Freigabe für Kanzleien beantwortet mindestens diese Fragen:

  • Gibt es einen belastbaren DPA/AVV?
  • Lassen sich relevante Sicherheits- und Audit-Unterlagen prüfen?
  • Sind Unterauftragsverarbeiter transparent?
  • Sind Löschfristen, Aufbewahrung und Supportzugriffe dokumentiert?
  • Lässt sich der zulässige Einsatzzweck intern sauber begrenzen?

Wenn ein Anbieter auf diese Fragen nur vage antwortet, ist das für eine Kanzlei meist ein Red Flag. Gerade im Berufsrecht zählt nicht, wie innovativ das Modell ist, sondern wie belastbar sich der Einsatz nachweisen lässt.

Praktische Risikofragen für Kanzlei-Workflows

In echten Mandatsabläufen sind oft nicht die großen Schlagworte das Problem, sondern die kleinen Prozessdetails:

  • Darf ein Associate unverändert aus dem DMS in eine externe API kopieren?
  • Werden Ergebnisse mit Quellenhinweisen oder nur als Textblock zurückgegeben?
  • Landen Inhalte zusätzlich in Monitoring- oder Ticket-Systemen?
  • Ist dokumentiert, welche Teams welche Tools nutzen dürfen?
  • Gibt es eine Fallback-Regel, wenn das Modell unklare oder widersprüchliche Antworten liefert?

Wer diese Punkte vor dem Rollout klärt, spart später viel Aufwand in Incident-Handling und Mandantenkommunikation.

Checkliste vor dem Rollout in Kanzlei oder Rechtsabteilung

Nutzen Sie vor dem Livegang eine kurze Go-Live-Checkliste:

  1. Use Case abgrenzen: Recherche, Entwurf, Zusammenfassung, Wissenssuche oder Mandantenkontakt?
  2. Daten klassifizieren: Welche Inhalte dürfen nie, welche nur bereinigt, welche frei verarbeitet werden?
  3. Vendor prüfen: DPA, Subprocessor, Region, Löschlogik, Supportmodell, Sicherheitsunterlagen.
  4. Berufsrecht abgleichen: § 43e BRAO, Verschwiegenheit, Mandatsbedingungen, interne Freigaben.
  5. DSGVO prüfen: Rechtsgrundlage, Transfermechanik, TOMs, ggf. DSFA.
  6. Rollen definieren: Wer darf die API nutzen, wer prüft Outputs, wer gibt Ergebnisse frei?
  7. KI-Richtlinie umsetzen: Prompt-Regeln, Verbotslisten, Eskalationswege, Logging.
  8. Schulung nach Art. 4 AI Act dokumentieren.
  9. Pilotbetrieb begrenzen: zunächst wenige Teams, wenige Datentypen, klare Erfolgskriterien.

Diese Liste ist bewusst operativ. Genau so wird aus einem abstrakten Compliance-Thema ein belastbarer Kanzlei-Prozess.

Wann ein externer Anwalt eingebunden werden sollte

Externe rechtliche Unterstützung ist besonders sinnvoll, wenn:

  • große Mengen echter Mandatsdaten in ein neues Setup einfließen sollen
  • mehrere Auslandsbezüge oder Drittlandtransfers im Spiel sind
  • Sie KI in Mandantenportalen, Chatbots oder automatisierter Kommunikation einsetzen wollen
  • sensible Beschäftigten-, Finanz- oder Gesundheitsdaten betroffen sind
  • Sie ein eigenes Legal-AI-Produkt entwickeln oder unter eigenem Namen vertreiben

Dann geht es nicht mehr nur um Tool-Nutzung, sondern um Produkt-, Berufsrechts- und Plattformverantwortung.

Verwandte Inhalte für die Vendor-Auswahl

Wenn Sie einzelne Anbieter vertieft prüfen möchten, helfen diese Leitfäden:

FAQ

Ist OpenAI API für Mandatsdaten tabu?

Nein. OpenAI API ist nicht automatisch tabu, aber Mandatsdaten dürfen nicht ohne saubere Freigabe- und Schutzmechanik an externe Systeme fließen. Entscheidend sind Datenkategorie, Vertrag, Region, Zugriffskontrolle, Löschkonzept und menschliche Kontrolle des Outputs.

Reicht ein AVV allein?

Nein. Ein AVV oder DPA regelt nur einen Teil des Problems. Für Kanzleien kommen zusätzlich § 43e BRAO, Verschwiegenheit, interne Berechtigungskonzepte, Datenminimierung und Schulungspflichten hinzu.

Ist Azure OpenAI für Kanzleien leichter vertretbar?

Häufig ja, weil bestehende Microsoft-Governance, Azure-Regionen und Unternehmenskontrollen in vielen Organisationen bereits vorhanden sind. Das kann die Dokumentation vereinfachen. Rechtlich ersetzt das aber keine Prüfung Ihres konkreten Setups.

Was muss in einer internen KI-Richtlinie stehen?

Mindestens:

  • erlaubte und verbotene Use Cases
  • Regeln für Mandatsdaten und personenbezogene Daten
  • Freigabepflichten für externe Kommunikation
  • Dokumentation von Prompts und Outputs, soweit erforderlich
  • Eskalationsregeln bei Halluzinationen, Sicherheitsvorfällen oder Vendor-Änderungen

Sind Kanzleien wegen des EU AI Act automatisch Hochrisiko-Betreiber?

Nein. Die meisten typischen LLM-Workflows in Kanzleien sind nach heutigem Stand nicht automatisch Hochrisiko. Das ändert aber nichts daran, dass KI-Kompetenz, Dokumentation und menschliche Kontrolle bereits jetzt wichtig sind.

Müssen Mandanten über den Einsatz von KI informiert werden?

Eine pauschale berufsrechtliche Informationspflicht ergibt sich nach dem BRAK-Leitfaden derzeit nicht automatisch aus BRAO oder BORA. Transparenz kann aber aus Vertragsgestaltung, UWG-Risiken oder Mandantenbeziehungen sinnvoll oder geboten sein. In sensiblen Konstellationen ist eine vertragliche Regelung oft die sauberste Lösung.

Nächster Schritt

Wenn Ihre Kanzlei oder Rechtsabteilung eine KI-API produktiv einsetzen will, sollte der Rollout mit einer kurzen Rechts- und Governance-Prüfung starten, nicht mit einem Testprompt in echten Mandatsdaten. Compound Law unterstützt bei Vendor Review, KI-Richtlinien, DSGVO/BRAO-Abgleich und AI-Act-Readiness für Kanzleien in Deutschland.

Dieser Beitrag bietet allgemeine Informationen und ersetzt keine rechtliche Beratung im Einzelfall.

Weitere Compliance-Guides

KI Kundenservice Datenschutz in Deutschland
compliance

KI im Kundenservice in Deutschland: DSGVO, AI Act und Rollout-Prüfung

KI im Kundenservice ist in Deutschland nutzbar, wenn DSGVO, AVV, Transparenz und AI-Act-Pflichten vor dem Rollout geprüft werden.

KI-Mitarbeiterüberwachung in Deutschland Compliance-Leitfaden
compliance

KI-Mitarbeiterüberwachung in Deutschland: DSGVO, Betriebsrat und AI Act

KI-Mitarbeiterüberwachung in Deutschland ist nur in engen Fällen mit DSGVO-, Betriebsrats- und AI-Act-Kontrollen zulässig.

KI-Sprachassistenten in Deutschland Compliance-Guide
compliance

KI-Sprachassistenten in Deutschland: DSGVO, AI Act und Rollout-Prüfung

KI-Sprachassistenten sind in Deutschland nutzbar, wenn DSGVO, Call Recording, AI-Act-Transparenz und Human Handoff sauber umgesetzt sind.

Häufige Fragen

Dürfen Kanzleien in Deutschland OpenAI API, Anthropic API oder Azure OpenAI nutzen?

Ja, grundsätzlich schon. Entscheidend sind aber die konkrete Konfiguration, der Umgang mit Mandatsdaten, vertragliche Absicherung, Zugriffskontrollen und eine dokumentierte menschliche Kontrolle der Ergebnisse.

Ist OpenAI API für Mandatsdaten automatisch unzulässig?

Nein. Es gibt kein pauschales Verbot. Kanzleien müssen aber prüfen, ob Verschwiegenheit, § 43e BRAO, DSGVO, Drittlandtransfers und Mandatsvereinbarungen den konkreten Einsatz tragen.

Reicht ein AVV oder DPA allein für den Einsatz einer KI-API?

Nein. Ein Vertrag ist nur ein Baustein. Hinzukommen müssen Datenklassifizierung, technische Zugriffsbeschränkungen, Löschkonzepte, Mitarbeiteranweisungen und die Prüfung berufsrechtlicher Geheimnisschutzanforderungen.

Ist Azure OpenAI für Kanzleien leichter vertretbar?

Oft ja, weil bestehende Azure-Governance, Tenant-Kontrollen und regionale Deployments hilfreich sein können. Rechtlich ersetzt das aber keine Prüfung der konkreten Architektur und Verträge.

Kostenlos beraten