AI Act und Banking: Was deutsche Banken wissen müssen
Banken nutzten KI, bevor die meisten Branchen wussten, was Machine Learning bedeutet. Kreditscoring, Betrugserkennung, algorithmischer Handel—das ist nicht neu. Neu ist, dass die EU diese jetzt reguliert.
Der AI Act trifft das Banking hart. Bonitätsprüfung ist explizit hochriskant. Ebenso jede KI, die den Zugang zu wesentlichen Finanzdienstleistungen bestimmt.
Kreditentscheidungen sind hochriskant
Wenn KI beeinflusst, ob jemand einen Kredit, eine Kreditkarte oder eine Hypothek bekommt, ist sie hochriskant nach dem AI Act. Punkt. Das bedeutet Risikomanagementsysteme, Bias-Tests, Transparenzpflichten, menschliche Aufsicht und technische Dokumentation.
Für deutsche Banken schichtet sich das auf bestehende BaFin-Anforderungen und das SCHUFA-Framework. Der AI Act ersetzt diese nicht—er ergänzt sie.
Betrugserkennung liegt in einer Grauzone
Betrugserkennungs-KI ist nicht automatisch hochriskant, kann aber Probleme auslösen. Wenn Ihr Betrugssystem jemandem den Zugang zu seinem Konto oder wesentlichen Diensten sperrt, sind Sie im Hochrisiko-Bereich. Wenn es nur Transaktionen zur menschlichen Prüfung markiert, sind Sie wahrscheinlich in Ordnung. Die Unterscheidung ist wichtig.
Kundenservice und Chatbots
Banking-Chatbots unterliegen Transparenzanforderungen. Kunden müssen wissen, dass sie mit KI interagieren. Wenn der Chatbot Beschwerden bearbeitet oder Entscheidungen trifft, die die Kundenbeziehung betreffen, können zusätzliche Pflichten gelten.
Was das praktisch bedeutet
Deutsche Banken müssen ihre KI-Systeme jetzt prüfen. Kreditscoring-Modelle brauchen die volle Hochrisiko-Behandlung. Betrugserkennung braucht sorgfältige Klassifizierung. Kundenorientierte KI braucht Transparenzmechanismen. Die BaFin wird aufpassen, und sie hat bereits signalisiert, dass sie die AI-Act-Durchsetzung koordinieren wird.
So hilft Compound Law
- KI-Systeminventar und Klassifizierung
- Kreditscoring-Compliance-Frameworks
- BaFin- und AI-Act-Integration
- Bias-Tests und Dokumentation
- Kundentransparenz-Richtlinien
Häufig gestellte Fragen
Ist alles Kreditscoring hochriskant? Ja. Jede KI zur Bonitätsprüfung natürlicher Personen ist explizit als hochriskant im AI Act gelistet.
Was ist mit internen Risikomodellen? Modelle für regulatorisches Kapital oder internes Risikomanagement sind nicht automatisch hochriskant, es sei denn, sie beeinflussen individuelle Kreditentscheidungen.
Wie interagiert das mit SCHUFA? SCHUFA-basiertes Scoring braucht trotzdem AI-Act-Compliance. Der Act macht keine Ausnahmen für etablierte Systeme—er reguliert sie.