Auftragsverarbeitungsverträge mit KI-Anbietern suggerieren Rechtssicherheit – doch bei sensiblen Mandantendaten nach Art. 9 DSGVO endet die Mitverantwortung des Anbieters genau dort, wo das eigentliche Risiko beginnt. Was Steuerberater:innen diesbezüglich verstehen und dokumentieren sollten.
Es ist ein vertrautes Bild: Ein Anbieter von KI-gestützten Kanzleisoftwarelösungen übersendet seinen Auftragsverarbeitungsvertrag. Das Dokument ist umfangreich, professionell gestaltet und enthält alle Formalia, die man von einem seriösen Anbieter erwartet. Technische und organisatorische Maßnahmen nach Art. 32 DSGVO sind beschrieben, EU-Hosting ist zugesichert, ein Verweis auf § 203 StGB fehlt selbstverständlich auch nicht. Auf den ersten Blick entsteht der Eindruck: Diese Zusammenarbeit ist datenschutzrechtlich abgesichert.
Bei näherer Betrachtung zeigt sich jedoch, dass dieser erste Eindruck einer kritischen Prüfung nicht standhält.
Nahezu alle marktgängigen AVV von KI-Anbietern enthalten – mitunter wenig prominent verankert – eine Formulierung, die sinngemäß lautet: Für unbefugte Zugriffe oder Offenlegungen übernimmt der Anbieter keine Haftung, sofern besondere Kategorien personenbezogener Daten im Sinne von Art. 9 DSGVO in die Anwendung eingegeben werden. Was klingt wie eine Randnotiz, ist in Wirklichkeit eine weitgehende Risikoverlagerung auf den Verantwortlichen – also auf die Kanzlei.
Das ist kein Versehen. Es entspricht einer in der Praxis häufig anzutreffenden Form des Risikotransfers. Die Anbieter wissen sehr genau, was sie tun, wenn sie ihre Haftung bei den sensibelsten Datenverarbeitungsszenarien ausdrücklich ausschließen. Sie stellen Infrastruktur bereit – und zwar durchaus gute, sorgfältig abgesicherte Infrastruktur. Aber sie übernehmen keine materielle Verantwortung für die rechtliche Zulässigkeit dessen, was in diese Infrastruktur eingespeist wird.
Hier liegt ein zentraler konzeptioneller Fehler, der sich in der Beratungspraxis immer wieder zeigt: Viele Kanzleiverantwortliche – und nicht selten auch manche Berater – gehen implizit davon aus, dass eine technisch gesicherte Verarbeitungsumgebung auch die datenschutzrechtliche Zulässigkeit der Verarbeitung mit sich bringt. Wenn die Verschlüsselung stimmt, die Zugriffskontrollen greifen und das Hosting in der EU liegt, dann ist doch alles in Ordnung – oder?
Nein. Art. 9 DSGVO ist kein Sicherheitsartikel. Er ist ein Verbot mit Erlaubnisvorbehalt. Das bedeutet: Die Verarbeitung besonderer Kategorien personenbezogener Daten – also Gesundheitsdaten, Informationen zur religiösen oder weltanschaulichen Überzeugung, Daten zur Gewerkschaftszugehörigkeit, genetische und biometrische Daten sowie Angaben zur Sexualität oder ethnischen Herkunft – ist grundsätzlich untersagt. Sie wird erst dann erlaubt, wenn einer der abschließend in Art. 9 Abs. 2 DSGVO aufgezählten Erlaubnistatbestände nachweislich erfüllt ist.
Technische und organisatorische Maßnahmen (TOM) nach Art. 32 DSGVO sind davon streng zu trennen. Sie können das Risiko einer Datenpanne reduzieren, aber sie begründen keine Verarbeitungserlaubnis. Wer diesen Unterschied nicht verinnerlicht, arbeitet auf einer falschen rechtlichen Ebene und schafft damit eine Compliance-Lücke, die sich im Ernstfall schwer schließen lässt.
Man könnte einwenden, dass Steuerberatungskanzleien üblicherweise keine Gesundheitsdaten oder biometrische Informationen verarbeiten. Das klingt plausibel, stimmt in der Praxis aber nur eingeschränkt.
Gerade bei der Erstellung von Jahresabschlüssen für kleinere Unternehmen, bei der Lohnbuchhaltung oder bei der Beratung von Einzelunternehmern können Informationen in die Kanzleiarbeit einfließen, die unter Art. 9 DSGVO fallen können – etwa Krankenkassenbeiträge und damit implizit Gesundheitsinformationen, Kirchensteuerdaten als Proxy für religiöse Überzeugungen, oder Informationen aus der betrieblichen Altersversorgung, die gesundheitliche Hintergründe erkennen lassen.
Wenn nun ein KI-Tool eingesetzt wird, das Texte analysiert, Belege auswertet oder Schriftstücke verarbeitet, besteht eine reale Möglichkeit, dass genau diese Datenkategorien in das System eingespeist werden – oft nicht bewusst, oft nicht absichtlich, aber dennoch tatsächlich. Und genau für dieses Szenario hat der Anbieter seine Haftung ausgeschlossen.
Es reicht also nicht aus, einen AVV zu unterschreiben und auf die darin beschriebenen TOM zu verweisen. Die DSGVO fordert vom Verantwortlichen eine eigenständige, bewusste und — das ist entscheidend – dokumentierte Risikoabwägung. Diese Dokumentationspflicht ergibt sich nicht zuletzt aus dem Rechenschaftsprinzip des Art. 5 Abs. 2 DSGVO: Der Verantwortliche muss nicht nur datenschutzkonform handeln, er muss dies auch nachweisen können.
Was fehlt, ist in vielen Kanzleien ein strukturiertes Entscheidungsprotokoll, das genau diese Abwägung festhält. Ein solches Dokument erfüllt mehrere Funktionen gleichzeitig. Es zwingt die Kanzleileitung dazu, sich bewusst mit der Frage auseinanderzusetzen, welche Datenarten tatsächlich in die KI-Anwendung einfließen. Es dokumentiert die datenschutzrechtliche Einschätzung, insbesondere die Einordnung unter Art. 9 DSGVO und die Prüfung einschlägiger Erlaubnistatbestände.
Es hält die Risikoabwägung fest, die trotz guter TOM verbleibt – denn kein System bietet vollständigen Schutz. Und es legt die Entscheidung des Verantwortlichen nieder, entweder auf die Verarbeitung besonderer Datenkategorien zu verzichten oder sie unter definierten Bedingungen und mit benannten Schutzmaßnahmen durchzuführen.
Letzteres ist keine Kleinigkeit. Eine dokumentierte Negativentscheidung – also die ausdrücklich festgehaltene Entscheidung, keine Art. 9-Daten in das KI-System einzuspeisen – kann im Zweifel eine haftungsabschirmende Wirkung haben. Sie zeigt, dass die Kanzleileitung die Risiken verstanden und aktiv adressiert hat.
Wer als Datenschutzberater Kanzleien in diesem Bereich begleitet, steht vor der Herausforderung, drei mitunter konkurrierende Ziele gleichzeitig zu erreichen.
Diese drei Ziele lassen sich in einem einzigen, konsistenten Dokument abbilden – einem Entscheidungsprotokoll zur Verarbeitung besonderer Kategorien personenbezogener Daten beim Einsatz von KI-Anwendungen.
Gerade in Hochrisikoszenarien, die die Verarbeitung besonderer Datenkategorien in KI-Anwendungen potenziell darstellen, ist auch die Frage einer Datenschutz-Folgenabschätzung zu stellen.
Nicht jede Nutzung eines KI-Tools durch eine Steuerberatungskanzlei löst diese Pflicht automatisch aus, aber eine bewusste und dokumentierte Prüfung dieser Frage ist unabdingbar. Ein gutes Entscheidungsprotokoll benennt diesen Punkt ausdrücklich und dokumentiert den Beschluss darüber,
Die Digitalisierung der steuerberatenden Praxis ist unaufhaltsam, und KI-Tools werden dabei eine zentrale Rolle spielen. Das ist keine Bedrohung, sondern eine Chance – sofern der rechtliche Rahmen mitgedacht wird. Wer jetzt investiert, um die datenschutzrechtliche Nutzung von KI-Anwendungen strukturiert und dokumentiert aufzusetzen, schafft die Grundlage für einen wettbewerbsfähigen, rechtskonformen und mandantenorientierten Kanzleibetrieb.
Wer dagegen darauf vertraut, dass der AVV des Anbieters schon ausreichen wird, übersieht, dass genau jene Szenarien, in denen das Risiko am größten ist, vertraglich aus der Verantwortung des Anbieters herausgenommen wurden. Die Verantwortung liegt beim Verantwortlichen – und die Dokumentation dieser Verantwortung ist keine Bürokratie, sondern Selbstschutz.
Dieser Beitrag basiert auf einer von uns entwickelten Entscheidungsprotokoll-Vorlage zur datenschutzrechtlichen Einordnung von KI-Anwendungen in der steuerberatenden Branche. Die Vorlage stellen wir auf Anfrage gerne zur Verfügung. Ebenso beantworten wir Fragen zur Implementierung eines solchen Protokolls – auch im Zusammenhang mit der Prüfung bestehender Auftragsverarbeitungsverträge.