Künstliche Intelligenz

Personenbezogene Daten in KI-Systemen

Personenbezogene Daten in KI-Systemen – worauf es für Kanzleien rechtlich ankommt.

Blog abonnieren

Verpassen Sie nichts mehr. Jetzt auf dem Laufenden bleiben und Newsletter abonnieren.

Einfach E-Mail-Adresse eintragen.

Subscribe

Personenbezogene Daten in KI-Systemen
24:36

Ein Steuerberater öffnet morgens seinen Laptop, hat drei dringende Fristsachen auf dem Tisch und gibt kurzerhand den Entwurf einer Steuererklärung – inklusive Name, Adresse und Einkommensdaten des Mandanten – in einen Chatbot ein. Die Antwort kommt in Sekunden, der Zeitdruck ist gelöst. Was dabei nicht geprüft wurde: ob der Dienst einen Auftragsverarbeitungsvertrag anbietet, ob Eingaben für das Modelltraining verwendet werden, und wo die Daten physisch verarbeitet werden.

Genau hier beginnt das Problem – denn was in diesem Moment in den Chatbot eingegeben wurde, sind personenbezogene Daten. Und für deren Verarbeitung gelten klare rechtliche Anforderungen – unabhängig davon, ob das Verarbeitungsmittel ein Mensch, eine Software oder ein KI-System ist.

Ob und unter welchen Voraussetzungen Steuerberater- und WP-Kanzleien personenbezogene Daten in KI-Systeme eingeben dürfen, ist längst eine Praxisfrage. Sie stellt sich im Alltag laufend. Entscheidend ist dabei meist nicht das KI-Tool allein, sondern unter welchen vertraglichen und technischen Rahmenbedingungen es genutzt wird.

1. Rechtsrahmen: KI-VO und DSGVO – zwei parallele Systeme, die bei personenbezogenen Daten zusammenwirken

Mit Inkrafttreten der EU-KI-Verordnung (KI-VO) existiert erstmals ein umfassender europäischer Rechtsrahmen für die Entwicklung, Bereitstellung und Nutzung von KI-Systemen. Diese Verordnung greift unabhängig davon, ob personenbezogene Daten verarbeitet werden. Sie etabliert ein risikobasiertes System mit Pflichten für Anbieter, Betreiber und Nutzer von KI – von Transparenzanforderungen bis hin zu Governance- und Dokumentationspflichten bei Hochrisiko-KI-Systemen.

Damit ist ein zentraler Punkt klargestellt:

Die KI-VO ist kein Datenschutzgesetz – und sie ersetzt die DSGVO nicht.

Beide Regelwerke stehen nebeneinander:

  • Die KI-VO regelt technische und regulatorische Anforderungen an KI-Systeme als solche.
  • Die DSGVO regelt den Umgang mit personenbezogenen Daten, unabhängig vom eingesetzten Verarbeitungsmittel.
  • Die KI-VO bestimmt, welche Anforderungen ein KI-System selbst erfüllen muss – je nach Risikostufe etwa bei Dokumentationspflichten, Einsatzbeschränkungen, menschlicher Aufsicht oder Trainingsdatenqualität. Diese Regeln gelten unabhängig davon, ob Mandats- oder Beschäftigtendaten verarbeitet werden.
  • Die DSGVO bestimmt, ob und unter welchen Bedingungen personenbezogene Daten überhaupt in ein KI-System eingegeben werden dürfen. Sie wird immer dann aktiviert, wenn Kanzleien KI mit realen Mandats-, Prüfungs- oder Beschäftigtendaten versorgen – sei es durch Prompts, Trainingsdaten, Logfiles oder generierte Ausgaben.
  • Berufsrecht und Strafrecht setzen zusätzlich strikte Grenzen – insbesondere § 203 StGB, die Verschwiegenheitspflichten des StBerG und der WPO sowie die berufsständischen Vorgaben der BStBK und WPK. Diese Schutzmechanismen gelten selbst dann, wenn KI-VO und DSGVO die Verarbeitung grundsätzlich zulassen würden.

Wenn also KI-Anwendungen in der Kanzlei personenbezogene Daten verarbeiten, entfaltet die DSGVO ihre volle Wirkung – zusätzlich zu den Vorgaben der KI-VO. Dann kommen die bekannten Datenschutzprinzipien ins Spiel: Rechtsgrundlagen, Zweckbindung, Datenminimierung, technische und organisatorische Maßnahmen sowie Rechenschaftspflichten.

Für Steuerberater und Wirtschaftsprüfer bedeutet das:

Im Ergebnis ergibt sich für Kanzleien ein dreistufiger Prüfrahmen:

  1. Erfüllt die KI-Anwendung die Vorgaben der KI-VO? Hierzu zählen die Risikoklasse des Systems, Transparenz- und Dokumentationspflichten sowie Anforderungen an Trainingsdaten, Governance und menschliche Aufsicht.
  2. Werden personenbezogene Daten verarbeitet? Falls ja: Rechtsgrundlage, Zweckbindung, Datenminimierung und TOM nach DSGVO. Falls nein: Die DSGVO bleibt außen vor, die KI-VO jedoch weiterhin anwendbar.
  3. Sind Berufsgeheimnis und strafrechtliche Verschwiegenheitspflichten gewahrt? Bei externen Anbietern, Cloud-KI und LLMs ist dies zwingend zu beachten.

Diese klar getrennte Sichtweise ist entscheidend: Eine Kanzlei kann ein KI-System vollständig rechtskonform nutzen – selbst wenn keine personenbezogenen Daten verarbeitet werden. Erst die Entscheidung, echte Mandatsinformationen einzubringen, öffnet die Tür zur DSGVO und zum Berufsrecht. 

2. Zentrale datenschutzrechtliche Leitplanken für KI

Grundsätze aus Art. 5 DSGVO

Setzt eine Kanzlei KI ein, gelten die regulären Datenschutzgrundsätze. Jede KI-Verarbeitung personenbezogener Daten muss insbesondere:

  • Rechtmäßig, transparent und fair sein: Der Einsatz darf nicht in einer Weise erfolgen, dir für die Kanzlei intransparent ist und eine sachgerechte Prüfung der Ergebnisse verhindert.
  • Einem festgelegten, legitimen Zweck dienen: "Wir werfen mal alles in den KI-Mixer und schauen, was passiert" ist kein zulässiger Zweck.
  • Auf das notwendige Maß beschränkt sein (Datenminimierung): Die KI erhält nur, was sie für den konkreten Zweck tatsächlich benötigt – nicht die komplette Lebensgeschichte des Mandanten.
  • Richtig und aktuell sein: Arbeitet KI mit veralteten oder falschen Daten, handelt es sich um mehr als ein Qualitätsproblem – es kann ein Datenschutzproblem werden.
  • Nur so lange eine personenbeziehbare Speicherung ermöglichen, wie erforderlich (Speicherbegrenzung).
  • Durch angemessene technische und organisatorische Maßnahmen geschützt sein (Integrität und Vertraulichkeit): Zugangskontrollen, Verschlüsselung, Protokollierung und mehr.
  • Die Kanzlei muss all dies nachweisen können (Rechenschaftspflicht).
  • Mandatsdaten: Art. 6 Abs. 1 lit. b DSGVO (Verarbeitung zur Erfüllung des Mandatsvertrags – etwa bei der Erstellung von Steuererklärungen, Jahresabschlüssen oder Beratungsleistungen) sowie Art. 6 Abs. 1 lit. c DSGVO (Verarbeitung zur Erfüllung gesetzlicher Pflichten nach AO, HGB, GoBD etc.).
  • Kanzleiorganisation und Qualitätssicherung: Art. 6 Abs. 1 lit. f DSGVO (berechtigte Interessen der Kanzlei, etwa Qualitätsverbesserung, interne Fehleranalyse, Prozessoptimierung – stets mit sorgfältiger Interessenabwägung).
  • Beschäftigtendaten: § 26 BDSG (Verarbeitung für Zwecke des Beschäftigungsverhältnisses – etwa bei KI-gestützten HR-Tools, Lernplattformen oder Zeiterfassungs- und Auswertungssystemen).

All diese Grundsätze gelten unabhängig davon, ob ein Mensch oder ein Algorithmus die Verarbeitung ausführt. Dass ein KI-Tool "es so gemacht hat", entlastet die Kanzlei rechtlich nicht – die Verantwortung verbleibt grundsätzlich bei ihr als datenschutzrechtlich Verantwortlicher.

Rechtsgrundlagen (Art. 6 DSGVO)

"Dürfen wir das?" – diese Frage entscheidet sich an der Rechtsgrundlage. Typische Konstellationen in der Steuerberatungs- und WP-Praxis:

Mandanteneinwilligungen sind für die reguläre Bearbeitung in der Regel nicht erforderlich – und berufsrechtlich oft sogar unerwünscht, weil sie den Eindruck erwecken könnten, man wolle sich Pflichtprobleme "wegunterschreiben" lassen. Für zusätzliche Zwecke, etwa die Nutzung von Mandatsfällen als Schulungsmaterial für KI, kann eine Einwilligung hingegen eine Option sein – sofern sie tatsächlich freiwillig, informiert und widerruflich ist.

Besondere Kategorien (Art. 9 DSGVO)

In Steuerakten tauchen besondere Kategorien personenbezogener Daten gerne "nebenbei" auf: Religionszugehörigkeit (Kirchensteuer), Gesundheitsdaten (Krankheitskosten), Angaben zur Schwerbehinderung, Gewerkschaftsbeiträge und mehr.

Solche Daten sind nach Art. 9 DSGVO besonders geschützt. KI-Anwendungen dürfen sie nur verarbeiten, wenn eine zusätzliche Sonderrechtsgrundlage nach Art. 9 Abs. 2 DSGVO vorliegt (etwa rechtliche Verpflichtung oder Geltendmachung von Rechtsansprüchen).

Besonders kritisch wird es, wenn diese Informationen für andere Zwecke als die unmittelbare Mandatsbearbeitung genutzt werden sollen – etwa zum Training eines Kanzlei-Chatbots. Hier ist mit größter Sorgfalt zu prüfen, ob der Zweck gedeckt und die Datenverarbeitung tatsächlich erforderlich ist – oder ob sie besser unterbleiben sollte. 

3. Berufsgeheimnis und Verschwiegenheit im KI-Kontext 

Strafrechtlicher Geheimnisschutz (§ 203 StGB)

Steuerberater und Wirtschaftsprüfer sind Geheimnisträger im Sinne von § 203 StGB. Mandats- und Prüfungsinformationen sind strafrechtlich geschützte Geheimnisse – unabhängig davon, in welchem technischen Kontext sie verarbeitet werden.

Der Einsatz KI-gestützter Tools und Systeme ist daher keine rein datenschutzrechtliche, sondern zunächst eine strafrechtliche Frage: Werden mandatsbezogene Daten in ein extern betriebenes KI-System eingespeist – sei es zur Dokumentenanalyse, zur automatisierten Auswertung von Jahresabschlüssen oder zur KI-gestützten Kommunikation – kann darin eine Offenbarung geschützter Informationen gegenüber dem Anbieter oder weiteren eingebundenen Stellen liegen. Eine solche Offenbarung ist nur dann zulässig, wenn der KI-Anbieter wirksam in die Verschwiegenheitssphäre eingebunden ist. Dazu können insbesondere vertragliche Regelungen – wie Auftragsverarbeitung und Geheimhaltungsverpflichtungen ) sowie entsprechende technische und organisatorische Maßnahmen gehören. Fehlt diese Einbindung – wie es bei vielen Consumer-KI-Anwendungen der Fall ist –, kann der KI-Einsatz strafrechtlich relevant sein, selbst wenn datenschutzrechtlich noch Spielräume bestünden.

Berufsrechtliche Pflichten (StBerG, WPO, BStBK/Steuerberaterkammern der Länder/WPK)

Neben dem strafrechtlichen Geheimnisschutz tritt für beide Berufsgruppen eine eigenständige berufsrechtliche Verschwiegenheitspflicht: für Steuerberater nach dem StBerG, für Wirtschaftsprüfer nach der WPO. Beide Regelwerke verlangen nicht nur Diskretion im Umgang mit Mandats- und Prüfungsinformationen, sondern auch eine eigenverantwortliche Berufsausübung – eine Anforderung, die beim Einsatz externer KI-Anwendungen besonderes Gewicht erhält.

Die zuständigen Berufsorganisationen – BStBK auf Seiten der Steuerberater, WPK auf Seiten der Wirtschaftsprüfer – machen deutlich:

    • Datenschutz und Verschwiegenheit sind keine getrennten Regelungskreise, sondern greifen beim Einsatz moderner KI-Systeme unmittelbar ineinander.
    • Die Entscheidung für oder gegen den Einsatz eines KI-Systems ist eine strategische Leitungsentscheidung der Kanzlei- bzw. Praxisführung – keine informelle Initiative einzelner Mitarbeitender.
    • KI muss in bestehende Qualitätssicherungs- und Kontrollsysteme eingebunden werden. Der unkontrollierte Einsatz eines KI-Tools – ohne Regeln, Prozesse und Verantwortlichkeiten – genügt den berufsrechtlichen Anforderungen beider Professionen nicht.

Konsequenz: Der Einsatz externer KI-Dienste mit Mandats- oder Prüfungsdaten ist für Steuerberater wie für Wirtschaftsprüfer nur dann berufsrechtlich zulässig, wenn eine tragfähige datenschutzrechtliche Grundlage besteht und der Anbieter wirksam in die Verschwiegenheitssphäre einbezogen ist – durch Auftragsverarbeitungsvertrag, vertragliche Geheimhaltungsverpflichtung sowie angemessene technische und organisatorische Sicherungen. 

4. Rollenverteilung: Verantwortlicher vs. Auftragsverarbeiter bei KI-Anbietern

KI-Anbieter können rechtlich sehr unterschiedliche Rollen einnehmen:

  • Auftragsverarbeiter: Der Anbieter verarbeitet Daten ausschließlich im Auftrag und nach Weisung der Kanzlei, ohne eigene Zwecke, ohne Trainingsnutzung, mit sauberem AV-Vertrag.
  • Eigenständiger Verantwortlicher: Der Anbieter entscheidet selbst über Zwecke und Mittel – etwa wenn er Eingaben zu eigenen Trainingszwecken nutzt oder umfangreiche Analysen für eigene Produkte generiert.
  • Gemeinsam Verantwortliche: Mischformen mit geteilter Verantwortung sind theoretisch denkbar, in der Praxis für Berufsgeheimnisträger jedoch meist wenig attraktiv.
  • Ein klassischer SaaS-KI-Dienst kann als Auftragsverarbeiter einzuordnen sein, wenn keine Nutzung zu eigenen Zwecken erfolgt, eine klare Weisungsbindung besteht und dies vertraglich sauber geregelt ist.
  • Public-Chatbot, der Eingaben zu Trainingszwecken nutzt, eigene Zwecke verfolgt, keine individuellen Verträge anbietet Æ eher eigenständiger Verantwortlicher. Hier ist die Eingabe echter Mandatsdaten in aller Regel nicht zulässig.

Für Kanzleien ist die Rollenklärung entscheidend:

  • Ein klassischer SaaS-KI-Dienst kann als Auftragsverarbeiter einzuordnen sein, wenn keine Nutzung zu eigenen Zwecken erfolgt, eine klare Weisungsbindung besteht und dies vertraglich sauber geregelt ist.
  • Public-Chatbot, der Eingaben zu Trainingszwecken nutzt, eigene Zwecke verfolgt, keine individuellen Verträge anbietet Æ eher eigenständiger Verantwortlicher. Hier ist die Eingabe echter Mandatsdaten in aller Regel nicht zulässig.

5. KI-Einsatz in der Kanzlei – datenschutzrechtliche Einordnung 

KI ohne Personenbezug

Soweit tatsächlich kein Personenbezug besteht, ist dies datenschutzrechtlich unproblematisch, da die DSGVO nicht greift:

  • KI für allgemeine Recherche: "Erkläre die Unterschiede zwischen Ist- und Sollversteuerung", "Formuliere eine Mandanteninformation zur Grundsteuerreform".
  • KI für Strukturierung und Formulierungsarbeit mit rein fiktiven oder vollständig anonymisierten Beispielen.
  • Fristenverwaltung und Workflow-Unterstützung – solange keine unnötigen Zusatzdaten über Mandanten oder Mitarbeitende gesammelt werden.
  • Interne Fehleranalysen: Auswertung von Prüfungsfeststellungen oder Rückfragen der Finanzverwaltung, um Muster zu erkennen und Prozesse zu verbessern.
  • Knowledge Management: Zusammenfassungen von Gesetzesänderungen, Fachaufsätzen oder BFH-Rechtsprechung.

Allerdings Vorsicht: "Anonymisiert" bedeutet datenschutzrechtlich, dass eine Re-Identifizierung ausgeschlossen ist – nicht bloß unwahrscheinlich. Verbleiben in den eingegebenen Daten auch nur einzelne direkte Identifikatoren (etwa Steuernummern oder IBANs) oder lässt eine ungewöhnliche Merkmalskombination – wie Branche, Rechtsform, Umsatzgröße und Region in einem kleinen Markt – Rückschlüsse auf eine konkrete Person oder ein konkretes Unternehmen zu, handelt es sich rechtlich weiterhin um personenbezogene Daten. Die scheinbare Anonymisierung ändert daran nichts.

Interne, kontrollierte KI-Systeme

  • Weitgehend unkritisch wird der Einsatz, wenn die KI:
  • innerhalb der eigenen Infrastruktur oder in einer strikt regulierten EU-Cloud läuft,
  • mit einem Auftragsverarbeitungsvertrag und ausdrücklicher Geheimhaltungsverpflichtung genutzt wird,
  • keine Weiterverwendung der Daten zu eigenen Zwecken (insbesondere kein Training des Basismodells) vorsieht,
  • und durch angemessene TOM abgesichert ist (Verschlüsselung, Rollenrechte, Protokolle, Löschkonzept).

Beispiele: KI-gestützte Dokumentenklassifizierung in einem DMS, das ohnehin Teil der Kanzlei-IT ist. Ein On-Premise-LLM, das nur innerhalb des Kanzleinetzwerks eingesetzt wird, ohne Verbindung zu externen Servern.

KI für Kanzleiorganisation und Qualitätssicherung

Mit geeigneter Rechtsgrundlage (berechtigte Interessen, Beschäftigtendatenschutz) kann KI etwa eingesetzt werden für:

Entscheidend ist, dass die KI sinnvoll in bestehende Prozesse eingebettet ist – und niemand auf die Idee kommt, "zur Sicherheit" sämtliche Mandatsakten in die Anwendung zu kippen. 

6. KI-Einsatz mit Mandats- und Prüfungsdaten: Voraussetzungen und Grenzen 

KI als Arbeitsmittel in der Mandatsbearbeitung

KI-Systeme können rechtlich zulässig in die Mandats- und Prüfungsarbeit eingebunden werden – vorausgesetzt, die folgenden Bedingungen sind erfüllt:

    • Zulässigkeit der Verarbeitung unabhängig von der KI. KI kann bestehende Arbeitsschritte effizienter gestalten, aber keine Datenverarbeitung legitimieren, die ohne KI unzulässig wäre. Die Rechtsgrundlage für die Verarbeitung muss unabhängig vom gewählten Werkzeug bestehen.
    • Der KI-Anbieter ist als Auftragsverarbeiter eingebunden. Ein wirksamer Auftragsverarbeitungsvertrag (AVV) ist Pflicht: mit klarer Weisungsbindung, transparenten Regelungen zu Subunternehmern, angemessenen technischen und organisatorischen Maßnahmen (TOM) – und insbesondere einer verbindlichen Zusage, dass Mandantsdaten nicht für das Training allgemeiner Modelle verwendet werden.
    • Berufsgeheimnis und Verschwiegenheit bleiben gewahrt. Der Anbieter muss rechtsverbindlich zur Geheimhaltung verpflichtet und förmlich in die Verschwiegenheitssphäre einbezogen sein. Kanzleiinterne Regelungen müssen sicherstellen, dass keine unkontrollierten Datenwege entstehen – etwa durch die Parallelnutzung nicht freigegebener Consumer-KI-Tools.
    • Der KI-Einsatz ist dokumentiert und organisatorisch verankert. Das Verzeichnis der Verarbeitungstätigkeiten, Datenschutzhinweise gegenüber Mandanten sowie – bei Wirtschaftsprüfern – die QM-Dokumentation müssen den KI-Einsatz vollständig abbilden. Dokumentation ist hier kein Selbstzweck, sondern Nachweis eines bewusst gestalteten, verantwortungsvollen Einsatzes.

Typische Einsatzszenarien: KI klassifiziert und sortiert Belege vor; die abschließende fachliche Bewertung verbleibt beim Menschen. KI erstellt Entwürfe für Mandantenschreiben oder Prüfungsberichte; diese werden anschließend fachlich geprüft, angepasst und eigenverantwortlich freigegeben.

Besondere Sorgfalt bei sensiblen Daten und risikoreichen Anwendungen

Nicht jeder KI-Einsatz mit Mandatsdaten ist gleich zu bewerten. Bei besonders vertraulichen Sachverhalten – etwa Strafverfahren, komplexen Vermögensstrukturen oder der Verarbeitung besonderer Kategorien personenbezogener Daten nach Art. 9 DSGVO in größerem Umfang – ist erhöhte Vorsicht geboten. Externe KI-Dienste sollten hier nur auf Basis strenger Voraussetzungen genutzt werden: technisch abgeschottete Systeme ohne Verbindung in öffentliche Cloud-Infrastrukturen, enge Zugriffsrechte, belastbare Rechtsgrundlagen auch für Art.-9-Daten.

Wo KI nicht nur unterstützt, sondern systematisch Personen bewertet, klassifiziert oder Scoring-Ergebnisse erzeugt, ist zu prüfen, ob eine Datenschutz-Folgenabschätzung (DSFA) nach Art. 35 DSGVO erforderlich ist; in vielen Fällen wird dies naheliegen. In diesen Fällen sollten der oder die Datenschutzbeauftragte – intern oder extern – frühzeitig einbezogen werden: nicht erst dann, wenn ein Mandant konkret nachfragt, sondern bereits in der Konzeptionsphase des KI-Einsatzes. 

7. KI-Einsatz mit Mandatsdaten: Risikofelder im Detail 

Frei zugängliche KI-Chatbots und Mandatsdaten

Ein zentrales Praxisrisiko liegt in der Nutzung frei zugänglicher KI-Anwendungen – kostenlose Web-Versionen oder Apps – mit echten Mandats- oder Prüfungsdaten. Fehlt ein Unternehmensvertrag und damit ein Auftragsverarbeitungsvertrag, nutzt der Anbieter Eingaben typischerweise zu Trainingszwecken, und Daten fließen in Infrastrukturen, deren genaue Verarbeitungsorte und Weitergabewege nicht verlässlich nachvollziehbar sind. In dieser Konstellation fehlen regelmäßig sowohl die datenschutzrechtliche Grundlage für die Übermittlung als auch die berufsrechtlich erforderliche Einbindung des Anbieters in die Verschwiegenheitssphäre. Für Kanzleien entsteht daraus ein ernstes Haftungsrisiko – datenschutz- wie berufsrechtlich.

Mandatsdaten als Trainingsmaterial für KI-Modelle

Mandats- und Prüfungsdaten sind keine geeignete Grundlage für das Training fremder KI-Modelle – und zwar unabhängig davon, ob dies im Kleingedruckten der Nutzungsbedingungen vorgesehen ist. Die eigenständige Weiterverarbeitung zu Trainingszwecken stellt einen neuen Verarbeitungszweck dar, der eine eigene Rechtsgrundlage erfordert. Bei besonderen Kategorien personenbezogener Daten nach Art. 9 DSGVO ist eine solche Grundlage kaum darstellbar. Hinzu kommt das Spannungsverhältnis zu Verschwiegenheits- und Berufsgeheimnisverpflichtungen, das sich durch vertragliche Gestaltung allenfalls begrenzen, aber nicht vollständig auflösen lässt. In der Praxis wird sich für diesen Verarbeitungsschritt regelmäßig keine tragfähige Rechtsgrundlage finden lassen.

Vollautomatisierte Entscheidungen ohne menschliche Prüfung

Art. 22 DSGVO schützt Betroffene vor Entscheidungen, die ausschließlich auf automatisierter Verarbeitung beruhen und rechtliche Wirkungen entfalten oder sie in vergleichbarer Weise erheblich beeinträchtigen. In der Steuer- und WP-Praxis wären das etwa vollautomatische Bonitätsbewertungen von Mandanten oder KI-gestützte Annahme- und Ablehnungsentscheidungen ohne menschliche Prüfung im Einzelfall.

Solche Anwendungen sind nicht grundsätzlich ausgeschlossen, erfordern aber strenge Voraussetzungen: Transparenz gegenüber den Betroffenen, geeignete Schutzmaßnahmen und in aller Regel eine Datenschutz-Folgenabschätzung. Darüber hinaus stellt sich eine berufsrechtliche Grundsatzfrage, die durch datenschutzrechtliche Compliance allein nicht beantwortet wird: Kann und darf eine Entscheidung, die originär dem Berufsträger obliegt, tatsächlich einem automatisierten System übertragen werden – auch wenn dieses technisch ausgefeilt ist?

8. Datenübermittlungen in die USA

Viele der am Markt relevanten KI-Anbieter haben ihren Sitz in den USA. Seit 2023 steht mit dem EU-US Data Privacy Framework (DPF) ein Angemessenheitsbeschluss der EU-Kommission zur Verfügung, auf den Übermittlungen an zertifizierte US-Unternehmen grundsätzlich gestützt werden können.

Für die Kanzleipraxis bedeutet das konkret:

    • DPF-zertifizierte Anbieter erleichtern die datenschutzrechtliche Einordnung, nehmen Kanzleien aber nicht aus der Pflicht. Übermittlungen müssen weiterhin im Verzeichnis der Verarbeitungstätigkeiten dokumentiert, in Datenschutzhinweisen gegenüber Mandanten beschrieben und hinsichtlich Rechtsgrundlage und Zweckbindung bewertet sein. Eine Zertifizierung ersetzt diese Prüfung nicht.
    • Nicht zertifizierte US-Anbieter erfordern zusätzliche Absicherung: Standardvertragsklauseln (SCCs) sowie ein Transfer Impact Assessment (TIA), das die konkreten Risiken im Einzelfall bewertet.

Wichtig – und häufig übersehen: Die datenschutzrechtliche Zulässigkeit einer Drittlandsübermittlung und die berufsrechtliche Zulässigkeit des KI-Einsatzes sind zwei voneinander unabhängige Prüfungen. Ein US-Anbieter kann nach DSGVO vollständig compliant sein – und dennoch berufsrechtlich nicht akzeptabel, wenn er nicht wirksam in die Verschwiegenheitssphäre eingebunden ist. Das DPF löst diese berufsrechtliche Anforderung nicht.

9. Organisatorische Mindestanforderungen: Quick-Check für die Kanzleipraxis

Datenschutzkonformer KI-Einsatz erfordert mehr als einen Anbietervertrag. Die folgende Übersicht benennt die organisatorischen Mindestanforderungen im Überblick.

Quick-Check: Inventarisierung & Zweckbestimmung

Prüfpunkt

Erledigt

Anmerkungen / Verantwortliche

KI-Tool-Inventar

Alle genutzten KI-Tools sind erfasst – offiziell und inoffiziell (Shadow-IT)

 

Je Tool ist der Anbieter, die Version und der Zugangsweg dokumentiert (Browser, API, App)

 

Datenflüsse

Für jedes Tool ist dokumentiert, welche Datenkategorien eingegeben werden (Mandatsdaten, Buchhaltungsdaten, Korrespondenz etc.)

 

Log-Daten und Prompt-Historien: Wo werden sie gespeichert, wie lange, wer hat Zugriff?

 

Support-Zugriff des Anbieters: Kann der Anbieter auf eingegebene Daten zugreifen (z. B. im Supportfall)?

 

Drittlandtransfers: Werden Daten in Nicht-EU-Länder übermittelt? Wenn ja: DPF-Zertifizierung, SCCs oder TIA vorhanden?

 

Zweckbestimmung

Für jedes Tool ist der Verarbeitungszweck festgelegt (z. B. Mandatsbearbeitung, interne Organisation, Marketing, Schulung)

 

Zweckänderungen (z. B. Nutzung von Mandatsdaten für Modelltraining) sind ausgeschlossen oder explizit geregelt

 

Das Verzeichnis der Verarbeitungstätigkeiten (VVT) enthält alle KI-gestützten Verarbeitungsvorgänge

 

 

 

Das könnte Sie auch interessieren

Verpassen Sie nichts mehr. Jetzt auf dem Laufenden bleiben und Newsletter abonnieren.

Sind Sie der Erste, der über neueste Themen wie Geldwäscheprävention, Datenschutz, Whistleblowing und aktueller Rechtsprechung informiert wird.

Einfach hier Ihre E-Mailadresse eintragen: