Künstliche Intelligenz

Warum der Einsatzkontext wichtiger ist als die Markenbekanntheit eines KI-Tools

Nicht die Markenbekanntheit entscheidet über Risiken eines KI-Tools, sondern der konkrete Einsatzkontext in der Kanzlei.

Blog abonnieren

Verpassen Sie nichts mehr. Jetzt auf dem Laufenden bleiben und Newsletter abonnieren.

Einfach E-Mail-Adresse eintragen.

Subscribe

Warum der Einsatzkontext wichtiger ist als die Markenbekanntheit eines KI-Tools
13:05

Stellen wir uns folgendes Szenario vor: Eine mittelständische Steuerberatungskanzlei führt im Frühjahr 2025 erstmals ein KI-gestütztes System zur automatisierten Mandantenannahme ein. Die Stimmung ist zunächst euphorisch. 

Das Tool ist in der Branche kein unbekannter Name: Es hat sich einen soliden Ruf erarbeitet, viele Kanzleien haben bereits darüber gesprochen, und seine Hersteller werben mit Begriffen wie "praxisbewährt", "sicher" und "für Berufsgeheimnisträger optimiert". 

Im Kanzleialltag, in dem digitale Lösungen längst zur Grundausstattung gehören und kaum noch eine Arbeitswoche ohne softwaregestützte Prozesse auskommt, vermittelte diese Markenbekanntheit ein Gefühl von Zuverlässigkeit – beinahe so, als sei allein der etablierte Ruf des Systems bereits ein hinreichendes Qualitäts- und Sicherheitsmerkmal. Man kennt den Namen, man hat Gutes gehört, man vertraut. 

Doch dieser Eindruck, so stabil er zunächst wirkte, hielt nur so lange, bis während der Implementierung eine scheinbar simple Frage aufkam: Welche Rolle übernimmt dieses KI-System eigentlich im konkreten Einsatzkontext der Kanzlei – und welche Konsequenzen folgen daraus für Haftung, Aufsicht und Mandantenschutz? 

In genau diesem Moment verschob sich die gesamte Betrachtungsweise. Plötzlich ging es nicht mehr um den vertrauten Namen, nicht um Marketingversprechen, nicht um die vermeintliche Seriosität eines bekannten Anbieters. 

Die entscheidende Leitlinie lautete nun: Was tut das System wirklich? Welche Prozesse beeinflusst es, welche Daten verarbeitet es, welche Schlussfolgerungen zieht es? Und viel wichtiger noch: Wie tief greift es in Entscheidungen ein, die für Mandanten, Aufsichtsbehörden, Berufsrecht und letztlich die eigene Haftung relevant sind? 

Dieser Moment markiert exemplarisch den Paradigmenwechsel, der viele Steuerberater und Wirtschaftsprüfer in den kommenden Jahren begleiten wird – und der bereits heute begonnen hat. KI-Tools werden zunehmend selbstverständlich eingesetzt: für Recherche und Dokumentenanalyse, für Textoptimierung und Korrespondenz, für die Unterstützung bei Kanzleiprozessen und teils auch für risikobasierte Einschätzungen, die früher ausschließlich menschlicher Urteilskraft vorbehalten waren. 

Doch die neue europäische KI-Regulierung und die berufsrechtlichen Rahmenbedingungen machen eines unmissverständlich deutlich: Die Bewertung eines KI-Einsatzes kann nicht an der Oberfläche erfolgen. Nicht der Markenname eines Tools, nicht seine Popularität in der Branche, nicht seine werbliche Positionierung entscheidet darüber, ob ein Einsatz risikolos, angemessen oder hochsensibel ist. Wer glaubt, mit einem bekannten Produkt automatisch auf der sicheren Seite zu sein, unterliegt einem Trugschluss, der teuer werden kann. 

Was zählt, ist allein der Use-Case – der konkrete Anwendungsfall und seine Auswirkungen auf Menschen, Prozesse, Mandantenrechte und Prüfungsqualität. Erst die genaue Analyse dessen, was ein System in einer spezifischen Kanzleisituation tatsächlich bewirkt, ermöglicht eine fundierte Einschätzung der damit verbundenen Risiken und Pflichten.  

Der trügerische Komfort bekannter Produktnamen 

Die Erfahrung vieler Kanzleien zeigt, wie schnell die Markenbekanntheit eines Tools zu einer Art "gefühlter Sicherheit" führen kann – einer Sicherheit, die bei näherer Betrachtung auf wackligen Füßen steht. 

Wenn ein System etabliert ist, wenn es im Markt präsent ist, wenn Kollegen auf Fortbildungen und in Fachzeitschriften darüber berichten oder Hersteller mit Zertifizierungen, Datenschutz-Siegeln und Compliance-Begriffen werben, entsteht leicht der Eindruck, man könne sich auf diese Reputation verlassen. 

Es ist ein psychologischer Mechanismus, der in vielen Lebensbereichen funktioniert: Bekanntes erscheint vertrauenswürdig, Etabliertes wirkt solide. Gerade in der Steuerberatung und Wirtschaftsprüfung, wo Software traditionell eine zentrale Rolle spielt und viele spezialisierte Anbieter über Jahrzehnte hinweg Vertrauen aufgebaut haben, gilt der Name eines Produkts oft als verlässliche Orientierungsgröße. Man kennt die Anbieter, man hat mit ihnen gearbeitet, man weiß, was man bekommt. 

Doch dieser Mechanismus funktioniert bei KI nicht mehr in der gleichen Weise – und genau hier liegt die Crux. Ein KI-Tool, das in einem Kontext harmlos und vollkommen unkritisch ist, kann im anderen Kontext tief in berufsrechtlich und regulatorisch sensible Bereiche hineinwirken. 

Dieselbe Software, die in einer Kanzlei lediglich bei der Formatierung von Schriftsätzen hilft, kann in einer anderen Kanzlei Mandantendaten analysieren, Risikobewertungen vornehmen oder Entscheidungsvorschläge generieren. Die Markenbekanntheit – so wertvoll sie für erste Orientierung und grundsätzliches Vertrauen sein mag – sagt schlichtweg nichts darüber aus, wie sich ein System in einer bestimmten Kanzleisituation verhält, welche Daten es verarbeitet, welche Schlüsse es zieht und welche Risiken damit verbunden sein können. Der Name auf der Verpackung verrät nichts über den Inhalt der konkreten Anwendung. 

Die entscheidende Frage lautet daher nicht: Ist dieses Tool bekannt und anerkannt? Sondern: Welche Entscheidungen werden durch das KI-System vorbereitet, beeinflusst oder automatisiert – und welche Verantwortung trägt die Kanzlei selbst weiterhin? Diese Frage muss am Anfang jeder Implementierung stehen, nicht am Ende, wenn die Probleme bereits eingetreten sind. 

Vom Tool zum Risikofaktor: Wenn ein bekanntes System tief in Entscheidungen eingreift 

Im Fall der eingangs genannten (fiktiven) Kanzlei stellte sich bei genauerer Prüfung schnell heraus, dass das KI-gestützte Mandantenannahmesystem weit mehr leistete als eine bloße Unterstützung bei administrativen Abläufen. Es analysierte Risikofaktoren potenzieller Mandanten, strukturierte AML-relevante Informationen aus verschiedenen Quellen, bewertete potenzielle Auffälligkeiten nach internen Algorithmen und schlug auf dieser Basis Risikokategorien vor. Das System erfasste also nicht nur Stammdaten oder erleichterte die Dokumentenablage – es griff unmittelbar in Entscheidungen ein, die für Berufsgeheimnisträger besonders sensibel sind und die im Zweifelsfall vor Aufsichtsbehörden, Gerichten oder Berufskammern gerechtfertigt werden müssen. 

Und genau hier zeigt sich die zentrale Erkenntnis, die für die gesamte Branche von Bedeutung ist: Ein KI-Tool wird nicht dadurch unkritisch, dass es bekannt oder etabliert ist. Es wird nicht dadurch sicher, dass andere es nutzen oder dass der Hersteller einen guten Ruf genießt. Seine Risikorelevanz entsteht ausschließlich durch das, was es in der konkreten Kanzleisituation tatsächlich tut – durch die Prozesse, in die es eingreift, durch die Daten, die es verarbeitet, durch die Entscheidungen, die es vorbereitet oder beeinflusst. 

Für Steuerberater und Wirtschaftsprüfer bedeutet das eine fundamentale Verschiebung der Perspektive: Die Bewertung von KI-Einsatz muss immer beim Einsatzkontext beginnen, nicht beim Produkt und seiner Reputation. 

Der Blick richtet sich nicht nach außen auf den Markt, sondern nach innen auf die eigene Praxis. Unterstützt das Tool lediglich die interne Kommunikation, etwa durch Zusammenfassungen von Besprechungsnotizen oder die Optimierung von E-Mail-Entwürfen? Dann ist der Einsatz meist unkritisch und bedarf keiner besonderen regulatorischen Aufmerksamkeit. 

Bewertet es hingegen Mandanten, analysiert es Transaktionsmuster oder zieht es Schlüsse aus sensiblen Finanzdaten? Dann ist der Einsatz sofort risikorelevant und erfordert eine sorgfältige Prüfung der rechtlichen Rahmenbedingungen. 

Trifft das System gar Vorentscheidungen für Prüfungshandlungen, etwa indem es Wesentlichkeitsgrenzen vorschlägt oder Prüfungsschwerpunkte empfiehlt? Dann bewegt man sich in einem hochsensiblen Bereich, der besondere Sorgfalt und umfassende Dokumentation verlangt. 

Analysiert es Daten, die dem Berufsgeheimnis unterliegen, etwa Mandantenkorrespondenz oder vertrauliche Geschäftsunterlagen? Dann ist äußerste Vorsicht geboten, und jeder Verarbeitungsschritt muss nachvollziehbar sein. 

Die Marke ist für diese Bewertung vollkommen irrelevant – und kann im Zweifel sogar blenden, weil sie ein Gefühl von Sicherheit erzeugt, das regulatorisch nicht trägt und vor keiner Aufsichtsbehörde Bestand hat. Der bekannte Name wird zum trügerischen Ruhekissen, das die notwendige kritische Prüfung verhindert. 

Warum die Verantwortung immer bei der Kanzlei liegt 

Ein weiterer Aspekt, der im Berufsalltag häufig unterschätzt oder schlicht verdrängt wird, ist die Frage der Verantwortungszuschreibung. Wer haftet, wenn etwas schiefgeht? Wer muss sich rechtfertigen, wenn eine KI-gestützte Entscheidung sich als fehlerhaft erweist? 

Gerade in durchregulierten Tätigkeitsfeldern wie Steuerberatung und Wirtschaftsprüfung, in denen nahezu jeder Arbeitsschritt rechtlichen Vorgaben unterliegt, bleibt die letztendliche Verantwortung stets beim Berufsträger – unabhängig davon, welche technischen Hilfsmittel zum Einsatz kommen. KI-Systeme können unterstützen, strukturieren, analysieren, Hinweise liefern und Zusammenhänge aufzeigen – aber sie entbinden niemanden von der fachlichen Prüfung, der kritischen Bewertung oder der Pflicht zu nachvollziehbaren Entscheidungen. Die Maschine assistiert; die Verantwortung delegiert sie nicht. 

Die neue europäische KI-Regulierung betont daher mit Nachdruck den Grundsatz der menschlichen Aufsicht. Dieser Grundsatz ist keine bloße Formalität, sondern hat handfeste praktische Konsequenzen für den Kanzleialltag. Kanzleien müssen jederzeit in der Lage sein zu erklären, wie Entscheidungen zustande kamen und auf welcher Informationsgrundlage sie getroffen wurden. Sie müssen darlegen können, welche Rolle die KI in diesem Prozess spielte – ob sie lediglich Informationen aufbereitete oder ob sie eigenständige Bewertungen vornahm. Sie müssen dokumentieren, welche Daten das System nutzte, woher diese Daten stammten und wie ihre Qualität sichergestellt wurde. Und sie müssen nachweisen können, welche Überprüfungen durch Menschen erfolgten, bevor eine Entscheidung finalisiert wurde. Diese Anforderungen sind Ausdruck einer Grundhaltung: Wer KI einsetzt, muss verstehen, was sie tut, und muss die Kontrolle behalten. 

Gerade in Kanzleien, die täglich mit sensiblen Mandantendaten arbeiten, die Prüfungsunterlagen von Unternehmen einsehen oder AML-relevante Informationen verarbeiten, ist diese Transparenz kein optionaler Zusatz, sondern eine berufliche Notwendigkeit. Sie ergibt sich aus dem Berufsrecht, aus den Mandatsverträgen, aus den Anforderungen der Aufsichtsbehörden und nicht zuletzt aus dem eigenen professionellen Selbstverständnis.  

Eine neue Form der professionellen Sorgfalt 

Für Steuerberater und Wirtschaftsprüfer entsteht damit eine neue Dimension beruflicher Sorgfaltspflicht – eine, die jedoch weniger als zusätzliche Bürde zu verstehen ist; vielmehr ist sie die konsequente Fortführung dessen, was professionelles Arbeiten ohnehin auszeichnet. Der Einsatz von KI will aktiv geplant sein, bevor das erste Tool implementiert wird. Er verlangt eine fachliche Einordnung, um zu verstehen, welche Prozesse betroffen sind und welche Risiken entstehen können. Er erfordert eine kontinuierliche Begleitung, um sicherzustellen, dass das System wie erwartet funktioniert. Und er setzt eine sorgfältige Dokumentation voraus. Wer diese Schritte systematisch in bestehende Qualitätssicherungsprozesse integriert, schafft nicht nur Rechtssicherheit, sondern auch die Grundlage für einen souveränen Umgang mit den neuen technologischen Möglichkeiten. 

Das bedeutet konkret: Die reflexhafte Annahme "Das Tool ist bekannt, also wird es schon sicher sein" führt in die Irre und kann gefährliche Konsequenzen haben. Sie verleitet dazu, die notwendige kritische Prüfung zu unterlassen und sich auf fremde Urteile zu verlassen, die für den eigenen Kontext möglicherweise gar nicht relevant sind. 

Die richtige Herangehensweise lautet stattdessen: "Welche Wirkung hat dieses Tool in unserem spezifischen Kontext – und tragen wir die Verantwortung dafür, diese Wirkung zu verstehen und zu kontrollieren?" Der Markenname mag ein legitimer Einstiegspunkt sein, ein erster Anhaltspunkt bei der Orientierung im Markt. Doch die eigentliche Entscheidung über den Einsatz entsteht erst nach einer gründlichen, individuellen Betrachtung des Use-Cases. Erst wenn klar ist, was das System in der eigenen Kanzlei konkret bewirkt, lässt sich beurteilen, ob der Einsatz vertretbar ist – und welche Maßnahmen erforderlich sind, um die Kontrolle zu behalten und die Verantwortung wahrzunehmen, die am Ende immer beim Berufsträger liegt. 

Das könnte Sie auch interessieren

Verpassen Sie nichts mehr. Jetzt auf dem Laufenden bleiben und Newsletter abonnieren.

Sind Sie der Erste, der über neueste Themen wie Geldwäscheprävention, Datenschutz, Whistleblowing und aktueller Rechtsprechung informiert wird.

Einfach hier Ihre E-Mailadresse eintragen: