⚡ Breaking
Anthropics Legal-Plugin für Claude Cowork erschüttert die Legal-Tech-Branche — $285 Mrd. Marktwert vernichtet
▾ Details
Was ist passiert?
Anthropic betritt den Legal-Tech-Markt direkt

Am 2. Februar 2026 veröffentlichte Anthropic ein Legal-Plugin für seine agentenbasierte Desktop-Plattform Claude Cowork. Erstmals bietet ein Foundation-Model-Unternehmen ein juristisches Workflow-Produkt direkt an — statt nur APIs an Legal-Tech-Anbieter zu liefern. Das Plugin ist Open Source (GitHub) und als eines von 11 spezialisierten Plugins erschienen. Es richtet sich an In-House Counsel, Commercial Counsel, Privacy/Compliance-Teams und Litigation Support.

Quellen: LawNext, Legal IT Insider, Law.com, Artificial Lawyer — Feb. 2026

Marktreaktion
$285 Milliarden Sell-Off an einem Tag

Die Ankündigung löste laut Bloomberg einen der größten KI-getriebenen Sell-Offs der Geschichte aus. Thomson Reuters verlor ca. 16%, RELX (LexisNexis) ca. 14%. Auch FactSet, S&P Global und Accenture wurden erfasst. Morgan Stanley stufte die Entwicklung als "Zeichen intensivierenden Wettbewerbs" ein. Morningstar nannte das Plugin den "ersten direkten Vorstoß eines großen LLM-Anbieters in die Legal-Technologie". Jefferies prägte den Begriff "SaaSpocalypse".

Quellen: Bloomberg, Yahoo Finance, The Daily Upside, Metaintro — Feb. 2026

Slash-Commands
Die fünf Kernfunktionen des Legal-Plugins
/review-contract /triage-nda /vendor-check /brief /respond

/review-contract prüft Verträge Klausel für Klausel gegen ein konfigurierbares Verhandlungs-Playbook mit einem Ampel-System:

Konform mit Playbook
Abweichung — Review empfohlen
Erhebliches Risiko — Eskalation

/triage-nda kategorisiert eingehende NDAs automatisch für Standard-Freigabe, juristische Prüfung oder vollständige Verhandlung. /vendor-check prüft den Status von Lieferantenverträgen. /brief erstellt kontextbezogene Briefings (Tages-Briefings, Themenrecherche, Incident Response). /respond generiert standardisierte Antworten für wiederkehrende Anfragen wie Betroffenenrechte-Anfragen (DSARs) und Discovery Holds.

Architektur & Technik
Wie das Plugin funktioniert

Das Plugin läuft in Claude Cowork, das Anthropic als "Claude Code für den Rest Ihrer Arbeit" positioniert. Cowork arbeitet lokal auf dem Rechner des Nutzers, führt Aufgaben in einer sandboxed Virtual Machine aus und kann Dateien lesen, erstellen und bearbeiten. Anders als im Chat arbeitet Cowork agentenbasiert: Man beschreibt ein Ziel, gibt Zugriff auf einen Ordner — und Claude plant und exekutiert autonom mehrere Schritte.

Technisch besteht das Plugin aus Markdown-Dateien (Skills + Commands), einer plugin.json (Metadaten) und mcp.json (MCP-Connector-Konfiguration). Die Anbindung an bestehende Tools (CRM, DMS, CLM) erfolgt über das Model Context Protocol (MCP) — Anthropics offener Standard für bidirektionale KI-Tool-Integration. Pramata hat bereits eine Integration angekündigt.

Voraussetzung: Claude Pro, Team oder Enterprise Abo (ab $20/Monat). Das Plugin selbst ist Open Source und kostenlos.

Einordnung
Warum das ein Paradigmenwechsel ist

Bisherige Legal-Tech-Anbieter wie Harvey AI ($8 Mrd. Bewertung), Legora ($1,8 Mrd.) und die KI-Produkte von Thomson Reuters und LexisNexis bauen auf Foundation Models — und bezahlen dafür API-Gebühren. Jetzt konkurriert der Modell-Anbieter selbst mit seinen eigenen Kunden. Above the Law spricht von einem "Vulkaneffekt" — die Legal-Tech-Branche könnte sich grundlegend verändern.

Entscheidend: Das Plugin ist konfigurierbar auf das eigene Playbook und die eigenen Risikotoleranzen. Unternehmen können es ohne Vendor-Abhängigkeit an ihre spezifischen Anforderungen anpassen. Gleichzeitig betont Anthropic: "All outputs should be reviewed by licensed attorneys" — es ersetzt keine Juristen, es beschleunigt sie.

Praxis-Szenarien
Konkrete Anwendungsfälle

NDA-Flut bewältigen: Ein In-House-Team erhält 30 NDAs pro Woche. Claude kategorisiert automatisch nach Standard-Freigabe, Review oder vollständiger Verhandlung — die Juristin prüft die priorisierte Warteschlange statt den Stapel.

Vertragsreview vor Unterschrift: Ein 47-Seiten-Lieferantenvertrag muss bis Freitag geprüft werden. /review-contract vergleicht Klausel für Klausel mit dem internen Playbook, flaggt Abweichungen und liefert konkrete Redline-Vorschläge. Antwort in Stunden statt Tagen.

Compliance-Monitoring: Laufende Überwachung von DSGVO-, CCPA- und SOC-2-Verpflichtungen. Das Plugin flaggt Abweichungen in Lieferantenverträgen, trackt Verlängerungsdaten und identifiziert Compliance-Lücken.

Teams berichten: Erste Vertragsprüfungen beschleunigen sich um 70–90%, wobei die eigentliche juristische Bewertung weiterhin beim Anwalt liegt.

KI × Legal × Compliance × Governance

Die KI-Transformation der Rechts- und Compliance-Funktion

Wir stehen vor einer fundamentalen Verschiebung: von externen Standardlösungen hin zu unternehmensindividuellen, KI-gestützten Anwendungen. Im Spannungsfeld zwischen Innovationsgeschwindigkeit und regulatorischer Verantwortung entsteht ein neues Paradigma für Corporate Legal und Compliance.

Dr. Nicolai Kruck
Dr. Nicolai Kruck, MLE — Compliance by AI
Die Ausgangslage
Warum Stillstand das größte Risiko ist

Die Geschwindigkeit der KI-Entwicklung übersteigt die Anpassungsfähigkeit traditioneller Unternehmensstrukturen. 88% aller Organisationen setzen KI bereits in mindestens einer Funktion ein (McKinsey, 2025) — doch nur 6% haben ihre Arbeitsabläufe grundlegend neu gestaltet. Die restlichen 94% riskieren, von der nächsten Welle der Disruption überrollt zu werden.

Besonders im Bereich Compliance, Governance, Risk und Legal zeigt sich ein Paradigmenwechsel: Unternehmen bewegen sich weg von starren, extern beschafften Standardlösungen hin zu flexiblen, intern entwickelten KI-Anwendungen, die auf ihre spezifischen regulatorischen Anforderungen zugeschnitten sind.

Das zentrale Spannungsfeld

Innovationsseite
Geschwindigkeit
Automatisierung
Wettbewerbsvorteil
Effizienzgewinn
🛡️
Regulierungsseite
DSGVO / EU AI Act
IT-Sicherheit
Auditierbarkeit
Verantwortlichkeit

Massive Automatisierung von Wissensarbeit

McKinsey schätzt, dass 22% der Anwaltstätigkeit und 35% der juristischen Assistenz mit heutiger KI automatisierbar sind. Goldman Sachs beziffert den Anteil automatisierbarer Legal-Tasks auf 44%.

▸ Vertiefung lesen
+
Die Datenlage: Wo steht die Automatisierung wirklich?

McKinseys Report "Agents, Robots, and Us" (November 2025) hat die Diskussion verschärft: 57% aller Arbeitsstunden in den USA sind mit heutiger Technologie potenziell automatisierbar — fast doppelt so viel wie die 30%-Schätzung von 2023. Für den Rechtsbereich sind die Zahlen besonders einschneidend. Legal und Administrative Services gehören zu den Berufsgruppen mit dem höchsten Automatisierungspotenzial — zusammen repräsentieren sie 40% aller US-Löhne in hochautomatisierbaren Tätigkeiten.

Die Goldman-Sachs-Studie "The Potentially Large Effects of AI on Economic Growth" (2023) bleibt ein Referenzpunkt: 44% aller juristischen Tätigkeiten sind durch generative KI automatisierbar — der höchste Wert aller Wissensberufe, noch vor Finanzdienstleistungen (35%) und Management (32%). Die OECD bestätigt diesen Trend: Juristische Berufe gehören global zu den Top-5 der am stärksten KI-exponierten Berufsgruppen.

Was konkret automatisiert wird — und was nicht

Die Automatisierung betrifft nicht pauschal "juristische Arbeit", sondern spezifische Aufgabentypen: Dokumentenreview und -klassifizierung (Verträge, Compliance-Dokumente, Due-Diligence-Unterlagen), regulatorische Recherche (Identifikation relevanter Vorschriften, Änderungsmonitoring), Standardvertragsgestaltung (Muster-NDAs, Einkaufsverträge, AGB), Compliance-Monitoring (Prüfung gegen Regelwerke, Fristüberwachung) und Berichterstattung (Compliance-Reports, Audit-Dokumentation).

Was nicht automatisierbar bleibt: strategische Rechtsberatung, Verhandlungsführung, Ermessensentscheidungen unter Unsicherheit, die Bewertung neuartiger Rechtsfragen und die ethisch-moralische Abwägung bei Interessenkonflikten. McKinsey betont: Über 70% der heute nachgefragten Kompetenzen werden auch in einer KI-dominierten Arbeitswelt relevant bleiben — allerdings in verändertem Kontext.

"The AI itself isn't going to kill your law firm — but complacent leadership may."

— LawFuel, Analyse des McKinsey AI Report 2025
Die McKinsey-Warnung: Das Skalierungsproblem

Die unbequemste Erkenntnis aus McKinseys Global AI Survey 2025 (ca. 2.000 Führungskräfte): 88% der Unternehmen setzen KI ein, aber nur 39% berichten messbare EBIT-Verbesserungen — und bei den meisten liegt der Effekt unter 5%. Nur 6% der Unternehmen — McKinseys "High Performers" — redesignen ihre Workflows grundlegend. Die anderen 94% "streuen KI über 40 Jahre alte Prozesse und erwarten Magie".

Für Rechtsabteilungen bedeutet das: Die Automatisierung einzelner Aufgaben (Vertragsreview, Recherche) bringt punktuelle Effizienzgewinne. Der strategische Wertbeitrag entsteht erst, wenn Workflows end-to-end neu gestaltet werden — von der Mandatsaufnahme bis zum Reporting.

🔮 Zukunftsausblick & Handlungsempfehlungen

Unternehmen müssen jetzt drei Dinge tun: Erstens eine systematische Task-Analyse durchführen — welche konkreten Aufgaben in Legal & Compliance sind automatisierbar, welche erfordern menschliches Urteil? Zweitens Pilotprojekte mit messbaren KPIs starten, nicht mit unternehmensweiten Visionen. Drittens die Weiterqualifizierung der juristischen Mitarbeiter priorisieren — McKinsey zeigt, dass die Nachfrage nach "AI Fluency" in Stellenausschreibungen sich innerhalb von zwei Jahren versiebenfacht hat. Wer in 12 Monaten keine KI-kompetenten Juristen hat, wird sie nicht mehr rekrutieren können.

Von Buy zu Build: Unternehmen werden zu Softwareentwicklern

Low-Code-Plattformen, Foundation Models und Agentic AI ermöglichen es Legal- und Compliance-Teams, eigene Anwendungen zu bauen — ohne klassische IT-Projekte, schneller und passgenauer als jede Standardlösung.

▸ Vertiefung lesen
+
Warum die Eintrittsbarriere gefallen ist

Noch 2022 war die Entwicklung einer eigenen KI-Anwendung ein Projekt für spezialisierte Data-Science-Teams mit sechsstelligen Budgets. Heute bieten Foundation Models (OpenAIs GPT-4o, Anthropics Claude, Metas Llama, Mistrals Mixtral) über APIs Zugang zu Sprachverständnis auf Expertenniveau — für wenige Cent pro Abfrage. Frameworks wie LangChain und LlamaIndex orchestrieren komplexe RAG-Workflows (Retrieval-Augmented Generation), die firmeneigene Dokumente und Policies einbeziehen. Plattformen wie n8n, Make und Microsoft Power Platform ermöglichen es Nicht-Programmierern, KI-Agenten visuell zu konfigurieren.

Der BCG-Report "Build for the Future" (2025) beziffert die Konsequenz: Nur 5% der Unternehmen sind "Future-Built" und generieren skalierten KI-Wert. 60% berichten minimale Ergebnisse — häufig, weil sie auf generische Standardlösungen setzen, die ihre spezifischen Governance-Anforderungen nicht abbilden.

Praxisbeispiele: Wer bereits erfolgreich intern baut

McKinsey "Lilli": Die interne KI-Plattform wird von 75% der 43.000 Mitarbeiter monatlich genutzt und hat nachweislich über 50.000 Beraterstunden in höherwertige Analysearbeit umgewandelt. PwC "ChatPwC": Erstellt Compliance-Reports und verbessert die Audit-Transparenz für über 75.000 geschulte Mitarbeiter. Klarna: Der schwedische Finanzdienstleister ersetzte durch interne KI-Entwicklungen Leistungen, die zuvor Salesforce, Workday und externen Kanzleien oblagen — CEO Sebastian Siemiatkowski berichtete 2024, dass KI-Agenten die Arbeit von 700 Kundenservice-Mitarbeitern übernehmen.

Im Legal-Bereich zeigt sich der Trend bei Unternehmen wie Volkswagen AG, wo im Datenschutz-Bereich mehrere KI-basierte Eigenentwicklungen produktiv eingesetzt wurden: Privacy-Chatbot, automatisierte DSFA-Dokumentation und KI-gestützte Vertragsanalyse — jeweils in Wochen entwickelt, nicht Monaten.

"Organizations with defined AI strategies are 2x more likely to experience revenue growth and 3.5x more likely to realize critical AI benefits."

— Steve Hasker, CEO Thomson Reuters, 2026
Datensouveränität als strategischer Treiber

Für europäische Unternehmen wird Datensouveränität zum zentralen Build-Argument. Die DSGVO, der EU AI Act und branchenspezifische Regulierungen (BaFin-MaRisk, DORA für Finanzinstitute) erfordern Kontrolle über Datenflüsse. Wenn ein US-basierter SaaS-Anbieter Vertragsdaten für Modelltraining verwendet oder Daten in Drittstaaten transferiert, entsteht ein regulatorisches Risiko. Interne Lösungen auf europäischer Cloud-Infrastruktur (IONOS, OVHcloud, Deutsche Telekom Open Telekom Cloud) eliminieren dieses Risiko strukturell.

Gartner prognostiziert: Bis 2027 werden 35% der Länder an regionsspezifische KI-Plattformen gebunden sein. Die Ära grenzenloser KI-Nutzung endet — und europäische Unternehmen, die jetzt interne Kompetenz aufbauen, gewinnen strategische Unabhängigkeit.

🔮 Zukunftsausblick & Handlungsempfehlungen

Rechtsabteilungen sollten eine hybride Build-Buy-Strategie verfolgen: Standardisierte Aufgaben (eDiscovery, CLM, Research) mit etablierten Tools abdecken, aber für unternehmensspezifische Compliance-Anwendungen interne Kompetenz aufbauen. Der erste Schritt: Ein konkretes Pilotprojekt in 4–6 Wochen — z.B. ein RAG-basierter Policy-Chatbot, der interne Richtlinien durchsuchbar macht. Deloittes State of AI Report (2026) zeigt: Nur 1 von 5 Unternehmen hat ein ausgereiftes KI-Governance-Modell. Wer jetzt Build-Kompetenz aufbaut und Governance von Anfang an integriert, schafft einen nachhaltigen Wettbewerbsvorteil.

Agentic AI: Von Assistenten zu autonomen Agenten

Gartner prognostiziert, dass bis 2026 40% aller Enterprise-Anwendungen KI-Agenten integrieren (heute: unter 5%). Im Legal-Bereich werden Agenten eigenständig recherchieren, prüfen und Compliance-Entscheidungen vorbereiten.

▸ Vertiefung lesen
+
Was Agentic AI von bisheriger KI unterscheidet

Die bisherige Generation von KI-Tools arbeitet reaktiv: Der Mensch stellt eine Frage, die KI antwortet. Agentic AI markiert einen fundamentalen Paradigmenwechsel — KI-Systeme, die eigenständig planen, entscheiden, handeln und aus Ergebnissen lernen. Gartners Senior Director Analyst Anushree Verma beschreibt die Entwicklung in fünf Stufen: Von KI-Assistenten (2025) über aufgabenspezifische Agenten (2026) und kollaborative Multi-Agenten-Systeme (2027–2028) bis hin zur "neuen Normalität" (2029), in der mindestens 50% aller Wissensarbeiter Agenten erstellen, steuern und beaufsichtigen.

McKinseys Global AI Survey 2025 bestätigt: 62% der Unternehmen testen bereits KI-Agenten. Die Nutzung von Agenten ist in IT und Wissensmanagement am weitesten verbreitet, breitet sich aber rasant auf Kundenservice, Sales Operations und Administrative Funktionen aus.

Agentic AI im Legal-Bereich: Konkrete Entwicklungen

Thomson Reuters CoCounsel lanciert Anfang 2026 agentenbasierte Legal-Workflows mit autonomem Document Review und "Deep Research"-Funktionen, die eigenständig über multiple Quellen recherchieren. LexisNexis Protégé setzt in der nächsten Generation auf vier spezialisierte Agenten — Orchestrator, Legal Research Agent, Web Search Agent und Customer Document Agent — die bei komplexen Workflows kollaborieren.

Harvey AI, genutzt von Großkanzleien wie Allen & Overy (A&O Shearman) und PwC Legal, entwickelt spezialisierte Legal-Agenten für Vertragserstellung, regulatorische Analyse und Litigation Support. Im CLM-Bereich prognostiziert Gartner für 2026 Zero-Touch-Contracting für Niedrigrisikovertrage, "Surgical Redlining" mit 95% Genauigkeit und KI-generierte Verhandlungs-Playbooks.

"AI agents will evolve rapidly, progressing from task and application specific agents to agentic ecosystems. This shift will transform enterprise applications from tools supporting individual productivity into platforms enabling seamless autonomous collaboration."

— Anushree Verma, Sr Director Analyst, Gartner (August 2025)
Die Governance-Herausforderung: Wer kontrolliert die Agenten?

Die zentrale Frage ist nicht, ob Agenten kommen, sondern wer sie kontrolliert. Gartner warnt: Über 40% der Agentic-AI-Projekte werden bis Ende 2027 abgebrochen — wegen unkontrollierter Kosten oder unklarem Business Value. Die Gründe: fehlende Aufsichtsmechanismen, unklare Verantwortlichkeiten und mangelnde Nachvollziehbarkeit autonomer Entscheidungen.

Gartner prognostiziert zudem über 2.000 "Death by AI"-Klagen bis Ende 2026 wegen unzureichender Risiko-Leitplanken. Für den Legal-Bereich besonders relevant: Wenn ein KI-Agent autonom eine Compliance-Bewertung vornimmt oder einen Vertrag ändert — wer haftet? Der EU AI Act fordert für High-Risk-Systeme menschliche Aufsicht (Art. 14) und ein laufendes Risikomanagementsystem (Art. 9). Diese Anforderungen gelten auch und gerade für agentenbasierte Systeme.

🔮 Zukunftsausblick & Handlungsempfehlungen

Unternehmen sollten jetzt drei Dinge vorbereiten: Erstens ein Agent Governance Framework — klare Regeln, welche Entscheidungen Agenten autonom treffen dürfen und wo Human-in-the-Loop obligatorisch bleibt. Zweitens Audit-Trails für jede agentenbasierte Aktion — ohne lückenlose Nachvollziehbarkeit wird keine regulatorische Prüfung bestanden. Drittens die Kompetenz zur Agenten-Steuerung intern aufbauen: Gartner erwartet, dass bis 2029 mindestens 50% der Wissensarbeiter Agenten "on demand" für komplexe Aufgaben erstellen müssen. Rechtsabteilungen, die diese Fähigkeit nicht aufbauen, werden zur Engstelle der Unternehmens-KI-Strategie.

EU AI Act: Compliance wird zur Pflicht

Ab August 2026 treten die Kernverpflichtungen des EU AI Act in Kraft. High-Risk-KI-Systeme — auch im Legal-Bereich — benötigen Risikomanagement, technische Dokumentation und menschliche Aufsicht. Strafen bis 35 Mio. € oder 7% des weltweiten Umsatzes.

▸ Vertiefung lesen
+
Der regulatorische Zeitplan: Was gilt ab wann?

Der EU AI Act (Verordnung 2024/1689) wird in drei Stufen durchgesetzt: Seit Februar 2025 gelten die Verbote unzulässiger KI-Praktiken (Social Scoring, unterschwellige Manipulation, biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum). Ab August 2025 gelten Transparenzpflichten für KI-Systeme mit allgemeinem Verwendungszweck (GPAI), einschließlich der Pflicht zur Kennzeichnung KI-generierter Inhalte. Ab August 2026 treten die Kernverpflichtungen für High-Risk-Systeme in Kraft — die für den Legal-Bereich relevanteste Stufe.

KI-Systeme im Bereich Rechtspflege und demokratischer Prozesse werden gemäß Annex III, Punkt 8 als High-Risk eingestuft. Dies umfasst KI-gestützte Rechtsberatung, automatisierte Rechtsauslegung und Systeme mit Einfluss auf behördliche Entscheidungen. Die Pflichten: Risikomanagementsystem (Art. 9), Daten-Governance (Art. 10), technische Dokumentation (Art. 11), Aufbewahrungspflicht für Logs (Art. 12), Transparenz (Art. 13), menschliche Aufsicht (Art. 14) und Anforderungen an Genauigkeit, Robustheit und Cybersicherheit (Art. 15).

Internationaler Regulierungsdruck: Kein Raum zum Ausweichen

Die EU ist nicht allein. Der Colorado AI Act tritt im Juni 2026 in Kraft und reguliert High-Risk-KI mit Transparenz- und Berichtspflichten. Der Illinois AI in Employment Act verbietet seit Januar 2026 diskriminierende KI im HR-Bereich. Die ABA Formal Opinion 512 (Juli 2024) verpflichtet US-Anwälte zu einem "reasonable understanding" der Fähigkeiten und Grenzen von KI-Tools. Dutzende US-Bundesrichter haben Standing Orders erlassen, die KI-Offenlegung und Verifizierung verlangen.

Gartner prognostiziert: Bis 2026 werden 80% der Organisationen formalisierte KI-Richtlinien einführen, die ethische Risiken, Markenrisiken und personenbezogene Daten adressieren. Informelle Policies und Ad-hoc-Experimentierung reichen nicht mehr aus.

"2026 marks the emergence of a new divide among organisations: those that adopt an AI strategy and those that do not."

— Steve Hasker, CEO Thomson Reuters
Konformitätsbewertung: Was praktisch zu tun ist

Die Konformitätsbewertung nach dem EU AI Act ist kein einmaliges Projekt, sondern ein laufender Prozess. Unternehmen müssen: Ein KI-Inventar erstellen — welche KI-Systeme sind im Einsatz, welche Risikokategorie gilt? Eine Risikoanalyse pro System durchführen — dokumentiert, aktualisiert, überprüft. Technische Dokumentation erstellen — Leistungsfähigkeit, Grenzen, Trainingsdaten, bekannte Bias. Human-Oversight-Mechanismen implementieren — wer überwacht, wie wird eingegriffen? Audit-Trails führen — jede KI-Entscheidung muss nachvollziehbar sein.

ISO/IEC 42001:2023 (AI Management Systems) bietet einen internationalen Rahmen, der mit dem EU AI Act kompatibel ist und als Basis für die Konformitätsbewertung dient. Unternehmen, die diesen Standard implementieren, schaffen gleichzeitig die Grundlage für die EU-AI-Act-Compliance.

🔮 Zukunftsausblick & Handlungsempfehlungen

Bis August 2026 bleiben weniger als 6 Monate. Unternehmen, die den EU-Markt bedienen, müssen jetzt handeln: KI-Inventar erstellen, Risikokategorien zuordnen, Governance-Strukturen aufbauen, Dokumentationsprozesse implementieren. Die Strafen — bis zu 35 Mio. € oder 7% des weltweiten Jahresumsatzes — machen Nichthandeln zum existenziellen Risiko. Gleichzeitig ist Compliance kein Wettbewerbsnachteil, sondern ein strategischer Enabler: Unternehmen mit ausgereifter KI-Governance können schneller skalieren, weil die regulatorischen Fragen bereits beantwortet sind. Thomson Reuters zeigt: Organisationen mit definierter KI-Strategie sind 2x wahrscheinlicher bei Umsatzwachstum und 3,5x wahrscheinlicher bei der Realisierung kritischer KI-Vorteile.

Der In-House Power Shift

52% der In-House-Counsel nutzen aktiv GenAI (ACC/Everlaw, 2025) — eine Verdopplung gegenüber dem Vorjahr. 64% setzen KI gezielt ein, um die Abhängigkeit von externen Kanzleien zu reduzieren.

▸ Vertiefung lesen
+
Die Zahlen hinter dem Machtwechsel

Der ACC/Everlaw GenAI Survey 2025 dokumentiert eine der schnellsten Adoptionswellen in der Geschichte des Rechtsmarktes: Die GenAI-Nutzung in Rechtsabteilungen hat sich in einem Jahr mehr als verdoppelt — von 23% auf 52%. Besonders bemerkenswert: 64% der In-House-Teams erwarten, durch KI-Fähigkeiten, die sie intern aufbauen, weniger auf externe Kanzleien angewiesen zu sein. Dieser Trend ist kein Wunschdenken — er wird durch konkrete Investitionen gestützt.

Die Implikationen für den Rechtsmarkt sind tiefgreifend. Routinearbeiten, die traditionell an Kanzleien ausgelagert wurden — Vertragsreview, regulatorische Recherche, Due-Diligence-Prüfungen, Standard-Compliance-Beratung — werden zunehmend intern erledigt. Kanzleien, die keine nachweisbaren KI-Fähigkeiten und Transparenz über ihren KI-Einsatz bieten, stehen vor einem strukturellen Wettbewerbsnachteil.

Was den In-House Power Shift antreibt

Drei Faktoren konvergieren: Erstens die Verfügbarkeit leistungsfähiger Tools — CoCounsel, Harvey AI, Luminance und andere ermöglichen es Rechtsabteilungen, Aufgaben intern zu lösen, die vor 24 Monaten externes Fachwissen erforderten. Zweitens der Kostendruck — KI-gestützte interne Review-Prozesse kosten einen Bruchteil der Stundensätze externer Kanzleien. Drittens die Datenkontrolle — interne Lösungen vermeiden den sensiblen Datentransfer an Dritte.

Forrester relativiert allerdings den Hype: Ihre 2026-Prognosen erklären die "KI-Hype-Phase" für beendet und erwarten, dass Unternehmen 25% der geplanten KI-Ausgaben ins Jahr 2027 verschieben — wegen enttäuschender ROI-Ergebnisse. Nur 15% der KI-Entscheidungsträger berichteten EBITDA-Verbesserungen in den letzten 12 Monaten. Forresters Chief Research Officer Sharyn Leaver warnt, dass "die Kluft zwischen aufgeblähten Anbieterversprechen und geliefertem Wert sich vergrößert".

"The gap between inflated vendor promises and value delivered is widening, forcing market correction."

— Sharyn Leaver, Chief Research Officer, Forrester (2026 Predictions)
Neue Kompetenzen: Der General Counsel als Technologie-Stratege

Der Power Shift verändert das Anforderungsprofil des General Counsel fundamental. Neben juristischer Expertise werden technologisches Grundverständnis, Datenaffinität und die Fähigkeit zur KI-Governance erwartet. Thomson Reuters' Future of Professionals Report 2025 zeigt: Die erfolgreichsten Rechtsabteilungen haben dedizierte Legal-Tech-Verantwortliche, die Technologie, Prozessoptimierung und juristische Qualitätssicherung verbinden.

McKinseys Daten bestätigen: Unternehmen mit aktiver C-Suite-Beteiligung an KI-Initiativen erzielen 2,6-mal häufiger messbaren Wertbeitrag. Gartner prognostiziert in "Predicts 2026: AI and Agentic AI Will Enable Legal Self-Service", dass Agentic AI die Arbeitsweise von Rechtsabteilungen transformieren wird — durch höhere Anwaltsproduktivität, internen Self-Service und automatisierte Routineverträge. Voraussetzung: größere Budgets und eine solide Datengrundlage.

🔮 Zukunftsausblick & Handlungsempfehlungen

Der In-House Power Shift ist keine Prognose mehr — er findet statt. Rechtsabteilungen müssen sich als strategische Technologie-Funktionen positionieren, nicht nur als juristische Servicecenter. Konkret heißt das: Budget für Legal-Tech verdoppeln (Gartner empfiehlt, GCs müssten größere Budgets sichern), interdisziplinäre Teams aus Juristen, Data Scientists und Prozessexperten aufbauen, und KI-Governance als interne Beratungsleistung anbieten — denn wer KI-Compliance für das Unternehmen gestaltet, wird zur unverzichtbaren Funktion. Kanzleien ohne demonstrierbare KI-Fähigkeiten und -Transparenz werden Marktanteile verlieren — die Frage ist nicht ob, sondern wie schnell.

Strategische Handlungsfelder
Drei Hebel der KI-Transformation
Die Schlüsselfaktoren, die über Erfolg und Relevanz der Legal- und Compliance-Funktion in den nächsten Jahren entscheiden.
🏗️

Build statt Buy

Starre Standardlösungen mit langen Implementierungszyklen werden abgelöst durch unternehmensinterne KI-Anwendungen. Foundation Models wie GPT-4, Claude oder Llama ermöglichen es, domänenspezifische Legal- und Compliance-Tools in Wochen statt Jahren zu entwickeln — angepasst an die eigene Governance, die eigenen Daten und die eigene Risikolandschaft.

Build vs. Buy • Souveränität • Time-to-Value
🤖

Agentic AI & Low-Code

Die nächste Generation der KI arbeitet nicht mehr nur reaktiv auf Prompts, sondern plant, entscheidet und handelt autonom. In Kombination mit Low-Code/No-Code-Plattformen entstehen KI-Agenten, die Compliance-Prüfungen, Vertraganalysen und Due-Diligence-Prozesse eigenständig durchführen — unter menschlicher Aufsicht, aber mit einer Geschwindigkeit und Konsistenz, die manuellen Prozessen weit überlegen ist.

AI Agents • No-Code • Automation
🛡️

Governance by Design

Innovation ohne Kontrollrahmen ist fahrlässig. Der EU AI Act, die DSGVO und branchenspezifische Regulierung erfordern, dass KI-Governance von Anfang an in die Architektur eingebaut wird — nicht nachträglich aufgesetzt. Nur 1 von 5 Unternehmen hat ein reifes Governance-Modell für autonome KI-Systeme (Deloitte, 2026). Wer hier früh investiert, gewinnt Handlungsspielraum.

EU AI Act • DSGVO • Risk Management

88%
der Organisationen nutzen KI in mindestens einer Funktion (McKinsey 2025)
5%
sind "Future-Built" — generieren skalierten KI-Wert. 60% berichten minimale Ergebnisse (BCG 2025)
40%
der Enterprise-Apps werden bis 2026 KI-Agenten integrieren (Gartner)
35M€
maximale Strafe unter dem EU AI Act — oder 7% des weltweiten Jahresumsatzes

Quellen: McKinsey Global AI Survey 2025 · BCG Build for the Future 2025 · Gartner Top Tech Trends 2025 · EU AI Act (Regulation 2024/1689) · ACC/Everlaw GenAI Report 2025 · Deloitte State of AI 2026


Fundierte Analysen
Sechs Perspektiven auf die KI-Transformation
Jeder Artikel behandelt eine Kernfrage der KI-Transformation im Rechts- und Compliance-Bereich — mit konkreten Daten, Praxisbeispielen und weiterführenden Quellen.
01 — TRANSFORMATION

Warum KI ein struktureller Wandel ist — und kein kurzfristiger Trend

Überblick: Wie KI die Arbeit von Rechts- und Compliance-Abteilungen fundamental verändert
▸ Artikel lesen
+

Die Einführung künstlicher Intelligenz in Rechts- und Compliance-Abteilungen wird häufig als technologisches Upgrade verstanden — schnellere Recherche, effizientere Dokumentenprüfung, automatisierte Standardprozesse. Diese Perspektive greift zu kurz. Was sich gerade vollzieht, ist ein struktureller Wandel der gesamten juristischen Wertschöpfung, vergleichbar mit der Digitalisierung der Finanzbranche vor zwei Jahrzehnten.

Die Dimensionen des Wandels

KI verändert nicht nur einzelne Tätigkeiten, sondern drei fundamentale Dimensionen gleichzeitig. Erstens die Aufgabenstruktur: Tätigkeiten, die bislang das Tagesgeschäft von Juristen und Compliance-Verantwortlichen ausmachten — Vertragsanalyse, regulatorische Recherche, Due-Diligence-Prüfungen, Berichterstattung — werden zunehmend automatisierbar. Laut einer Studie von Goldman Sachs (2023) sind 44% der juristischen Tätigkeiten durch generative KI automatisierbar — der höchste Wert aller Wissensberufe.

Zweitens die Kompetenzprofile: Die juristische Ausbildung hat sich seit Jahrzehnten nicht fundamental verändert. Doch die Anforderungen an Unternehmensjuristen verschieben sich: Neben juristischem Fachwissen werden zunehmend technologisches Grundverständnis, Datenaffinität und die Fähigkeit zur Mensch-Maschine-Kollaboration erwartet. Die ACC Foundation stellte 2025 fest, dass bereits 52% der In-House-Counsel GenAI aktiv nutzen — gegenüber 23% ein Jahr zuvor.

Drittens die strategische Rolle: Rechts- und Compliance-Abteilungen wandeln sich von reinen Kontrollfunktionen zu strategischen Enablers. Wer KI-Governance beherrscht, wird zum internen Berater für das gesamte Unternehmen — nicht nur für rechtliche Fragen, sondern für die verantwortungsvolle Implementation von KI in allen Geschäftsbereichen.

Drei Stufen der KI-Integration

Es ist wichtig, zwischen drei qualitativ verschiedenen Stufen der KI-Integration zu unterscheiden, die häufig in der öffentlichen Diskussion vermischt werden:

  • Automatisierung ersetzt repetitive, regelbasierte Tätigkeiten vollständig (z.B. automatische Vertragskategorisierung, Fristüberwachung, standardisierte Compliance-Checks).
  • Assistenz unterstützt menschliche Entscheidungen durch Vorschläge, Zusammenfassungen und Analysen — die finale Bewertung bleibt beim Menschen (z.B. KI-unterstützte Vertragsredaktion, Research-Zusammenfassungen).
  • Entscheidungsunterstützung geht weiter: KI-Systeme bewerten Risiken, prognostizieren Ausgänge und empfehlen Handlungsoptionen — der Mensch entscheidet auf Basis KI-generierter Insights (z.B. prädiktive Litigation-Analyse, Risikobewertung bei M&A).

Die meisten Unternehmen befinden sich heute in der Übergangsphase zwischen Stufe 1 und 2. Die strategische Herausforderung besteht darin, die Organisation auf Stufe 3 vorzubereiten — und gleichzeitig sicherzustellen, dass die menschliche Kontrolle und Verantwortung erhalten bleibt.

Kernthese: Rechts- und Compliance-Abteilungen, die KI als reine Effizienzmaßnahme betrachten, verpassen die strategische Dimension. Die entscheidende Frage ist nicht "Wie sparen wir 30% Reviewzeit?", sondern "Wie positionieren wir uns als strategischer Partner für die KI-Transformation des gesamten Unternehmens?" Wer KI-Governance beherrscht — für sich selbst und als interner Berater — wird zur unverzichtbaren Funktion.

02 — USE CASES

Erfahrungswerte und praktischer KI-Einsatz in Legal & Compliance

Reale Einsatzszenarien, typische Fehler und Lessons Learned aus der Implementierung
▸ Artikel lesen
+

Die Diskussion über KI im Rechtsbereich oszilliert häufig zwischen zwei Extremen: der utopischen Vision einer vollautomatisierten Rechtsabteilung und der skeptischen Abwehrhaltung, dass KI "echte" juristische Arbeit nie ersetzen könne. Beide Positionen verfehlen die Realität. Was zählt, sind konkrete Erfahrungswerte — aus realen Implementierungen, mit messbaren Ergebnissen und dokumentierten Lernkurven.

Vertragsanalyse und -prüfung

Der ausgereifteste Use Case. KI-Systeme analysieren Verträge in Sekunden, extrahieren relevante Klauseln, identifizieren Risiken und gleichen gegen interne Policies ab. Führende CLM-Plattformen wie Ironclad, Icertis und Sirion integrieren bereits agentenbasierte KI. Praxisergebnisse zeigen Reduzierungen der Review-Zeit um bis zu 90% bei gleichzeitig höherer Konsistenz. Der Schlüssel liegt in der Qualität der Trainingsdaten: Unternehmen, die eigene Vertragsstandards als Referenz einpflegen, erzielen deutlich bessere Ergebnisse als solche, die auf generische Modelle setzen.

Compliance-Monitoring und Regulatory Change Management

Regelbasierte Compliance-Prüfungen werden durch KI-Systeme ergänzt, die natürlichsprachliche Regulierungen interpretieren und auf interne Prozesse abbilden können. EY setzt KI-Systeme ein, die über 80.000 Steuerexperten bei mehr als 3 Millionen Compliance-Vorgängen jährlich unterstützen. Besonders effektiv: automatisiertes Regulatory Change Management, das neue Vorschriften identifiziert, ihre Relevanz für das Unternehmen bewertet und betroffene interne Policies markiert.

Legal Research der nächsten Generation

Thomson Reuters CoCounsel und LexisNexis Protégé+ setzen bereits agentenbasierte Workflows ein: autonome Recherche über multiple Quellen, Quellvergleich, Widerspruchserkennung und strukturierte Zusammenfassungen mit Quellenbelegen. Westlaw Precision nutzt KI-gesteuerte Relevanzalgorithmen, die nachweislich die Recherchezeit um 40–60% reduzieren. Harvey AI bietet spezialisierte Modelle für juristische Argumentation, die von führenden internationalen Kanzleien wie Allen & Overy und PwC Legal eingesetzt werden.

Datenschutz-Management und DSGVO-Compliance

Der Privacy-Bereich eignet sich besonders für KI-Automatisierung: automatisierte Datenschutz-Folgenabschätzungen (DSFAs), Privacy-Chatbots für Mitarbeiter- und Betroffenenanfragen, KI-gestützte Verarbeitungsverzeichnisführung und automatisiertes Cookie-Consent-Management. Gerade die strukturierte, regelbasierte Natur des Datenschutzes macht ihn ideal für KI-unterstützte Prozesse.

Typische Fehler und unrealistische Erwartungen

  • Fehler 1 — "Plug and Play": KI-Tools werden eingekauft, ohne die Organisation vorzubereiten. Ohne klare Prozesse, Verantwortlichkeiten und Qualitätssicherung bleibt die Nutzung oberflächlich.
  • Fehler 2 — Halluzination ignorieren: LLMs produzieren plausibel klingende, aber falsche Aussagen. Ohne systematische Verifikation und Human-in-the-Loop-Prozesse ist dies ein erhebliches Haftungsrisiko.
  • Fehler 3 — Zu schnell skalieren: Prototypen funktionieren oft, aber der Übergang in die Produktivumgebung scheitert an Datenqualität, IT-Integration und Change Management. McKinsey berichtet, dass 88% der Unternehmen KI einsetzen, aber nur 39% messbaren Wertbeitrag erzielen.
  • Fehler 4 — Juristen nicht einbeziehen: KI-Projekte im Legal-Bereich scheitern, wenn sie ausschließlich von IT getrieben werden — ohne domänenspezifisches Wissen darüber, was "gute" juristische Arbeit ausmacht.

Lesson Learned: Die erfolgreichsten KI-Implementierungen beginnen nicht mit der Technologie, sondern mit der Frage: "Welches konkrete Problem lösen wir, und wie messen wir den Erfolg?" Unternehmen, die mit einem klar abgegrenzten Pilotprojekt starten, messbare KPIs definieren und iterativ erweitern, erzielen nachweislich bessere Ergebnisse als solche, die unternehmensweite KI-Strategien ohne Praxisvalidierung ausrollen.

03 — MARKTÜBERBLICK

KI-Tools für Juristen: Was der Markt bietet — und wo die Grenzen liegen

Überblick über verfügbare Tools, Bewertungskriterien und eine ehrliche Einordnung
▸ Artikel lesen
+

Der Markt für Legal-Tech-KI ist in den letzten zwei Jahren explodiert. Hunderte von Tools versprechen, juristische Arbeit schneller, günstiger und besser zu machen. Doch die Qualitätsunterschiede sind enorm — und die Marketing-Versprechen übertreffen regelmäßig die tatsächliche Leistungsfähigkeit. Ein nüchterner Überblick ist daher unverzichtbar.

Vertragsgestaltung und -prüfung (CLM)

Der reifste Markt innerhalb Legal AI. Führende Plattformen sind Ironclad (End-to-End-CLM mit AI-Assist für Redaktion und Review), Icertis (Enterprise CLM mit besonderer Stärke in Procurement-Verträgen), Sirion (CLM mit Fokus auf Post-Signature-Management und Obligation Tracking) und Juro (kollaborative Vertragsplattform für Mid-Market). Neuere Anbieter wie Spellbook (KI-Redaktionsassistent, integriert in MS Word) und Robin AI (KI-gestütztes Contract Review mit Fokus auf Geschwindigkeit) setzen gezielt auf generative KI. Bewertungskriterium: Wie gut lässt sich die KI auf eigene Vertragsstandards und Playbooks trainieren?

Sachverhaltsermittlung und Legal Research

Thomson Reuters CoCounsel (GPT-4-basiert, integriert in Westlaw, Practical Law und Drafting) ist derzeit der Branchenstandard für KI-gestützte Recherche. LexisNexis Protégé+ bietet ähnliche Funktionen mit Multi-Jurisdiktions-Recherche. vLex Vincent AI ist stark im europäischen und internationalen Recht. Harvey AI positioniert sich als spezialisiertes Legal LLM, eingesetzt von Großkanzleien wie Allen & Overy (A&O Shearman). Bewertungskriterium: Quelltransparenz — zeigt das System, woher die Information stammt, und ermöglicht es eine Verifizierung?

Due Diligence und Dokumentenanalyse

Kira Systems (jetzt Teil von Litera) ist der etablierte Player für M&A Due Diligence mit trainierbarer KI. Luminance setzt auf proprietäre LLMs, die keine externen Daten nutzen — ein Argument für datensensible Mandanten. Evisort (jetzt Teil von Workday) kombiniert Vertragsanalyse mit ERP-Integration. Für eDiscovery sind Relativity (mit aiR, dem neuen KI-Review-Assistenten) und Everlaw marktführend. Bewertungskriterium: Wie schnell lernt das System aus korrektivem Feedback?

Compliance-Tools und GRC

Im GRC-Bereich (Governance, Risk, Compliance) integrieren die etablierten Plattformen zunehmend KI-Funktionen: ServiceNow GRC mit AI-gestützter Risikobewertung, OneTrust für Privacy und AI Governance, Diligent für Board-Governance und ESG, Riskonnect für Enterprise Risk Management. Spezialisierte KI-Compliance-Tools wie Ascent RegTech (automatisierte regulatorische Analyse) und FiscalNote (Regulatory Intelligence) ergänzen das Bild.

Bewertungskriterien für die Tool-Auswahl

  • Effektivität und Zuverlässigkeit: Wie hoch ist die Genauigkeit? Gibt es Benchmarks? Wie transparent ist der Anbieter bei Fehlraten und Halluzinationsquoten?
  • Datenschutz und Datensicherheit: Wo werden Daten verarbeitet? Werden Eingaben für Modelltraining verwendet? Gibt es On-Premise- oder Private-Cloud-Optionen? DSGVO-Konformität?
  • Kontrollmechanismen: Gibt es Quellenangaben? Human-in-the-Loop-Optionen? Audit-Trails? Wie lässt sich die KI-Entscheidung nachvollziehen und dokumentieren?
  • Integration: Lässt sich das Tool in bestehende IT-Landschaft integrieren (DMS, ERP, CRM)? Gibt es APIs? Wie hoch ist der Implementierungsaufwand?
  • Risiken: Bias in Trainingsdaten, Halluzinationen, Vendor Lock-in, Haftungsfragen bei fehlerhaften KI-Outputs, Abhängigkeit von US-Cloud-Anbietern.

Ehrliche Einordnung: Der Markt ist fragmentiert, schnelllebig und von übertriebenen Versprechen geprägt. Die meisten Tools liefern bei einfachen, gut definierten Aufgaben gute Ergebnisse — Vertragsklassifizierung, Standardrecherche, Dokumentenvergleich. Bei komplexen juristischen Bewertungen, strategischer Beratung und Ermessungsentscheidungen bleibt die menschliche Urteilsfähigkeit unverzichtbar. Der größte Fehler: Tools anhand von Demos statt anhand realer Workflows bewerten.

04 — MAKE OR BUY

Eigene KI-Lösungen entwickeln — wann es sich lohnt und wann nicht

Die Make-or-Buy-Entscheidung für Rechts- und Compliance-Abteilungen: Strategien, Risiken, Praxisbeispiele
▸ Artikel lesen
+

Die Compliance-Funktion steht vor einem Wendepunkt. Jahrzehntelang war die Beschaffung externer Software der Standard: GRC-Plattformen, CLM-Systeme, Whistleblower-Tools — sie alle wurden eingekauft, konfiguriert und in die bestehende IT-Landschaft integriert. Dieser Ansatz war nachvollziehbar in einer Welt, in der Softwareentwicklung teuer, langwierig und hochspezialisiert war. Diese Welt existiert nicht mehr.

Warum Build heute realistisch ist

Die Verfügbarkeit leistungsfähiger Foundation Models (GPT-4, Claude, Llama, Mistral), kombiniert mit Low-Code-Plattformen, RAG-Architekturen (Retrieval-Augmented Generation) und modularen API-Strukturen, hat die Eintrittsbarriere dramatisch gesenkt. Was früher ein zwölfmonatiges IT-Projekt mit sechsstelligem Budget war, kann heute von einem interdisziplinären Team aus Legal, Compliance und IT in wenigen Wochen als funktionsfähiger Prototyp realisiert werden.

Anthropic's Claude, OpenAI's Assistants API und Microsofts Azure AI Foundry ermöglichen es, spezialisierte Agenten zu bauen, die auf eigene Dokumente, Policies und Prozesse zugreifen — ohne ein einziges Modell selbst trainieren zu müssen. Tools wie LangChain, LlamaIndex und n8n orchestrieren komplexe Workflows mit minimalem Code.

Argumente für Build

  • Passgenaue Governance: Externe Lösungen bilden generische Compliance-Anforderungen ab. Interne Tools können spezifische Policies, Risikomatrizen und Eskalationswege von Tag eins integrieren.
  • Datensouveränität: In regulierten Branchen und unter der DSGVO ist die Frage, wo Daten verarbeitet werden, nicht verhandelbar. Interne Lösungen auf eigener Infrastruktur bieten strukturelle Vorteile.
  • Geschwindigkeit: Die regulatorische Landschaft verändert sich schneller als Release-Zyklen externer Anbieter. Interne Teams können in Tagen reagieren, statt auf das nächste Vendor-Update zu warten.
  • Strategischer Wissensaufbau: Wer intern baut, baut Kompetenz auf. Wer extern kauft, bleibt abhängig. Langfristig ist die interne KI-Kompetenz ein Wettbewerbsvorteil.

Argumente für Buy

  • Reife und Validierung: Etablierte Plattformen (Ironclad, Relativity, ServiceNow) bringen jahrelange Entwicklung, Kundenfeedback und validierte Workflows mit.
  • Wartung und Support: Eigenentwicklungen müssen dauerhaft gepflegt werden. Modelle veralten, APIs ändern sich, Sicherheitslücken müssen geschlossen werden.
  • Compliance-Zertifizierung: Etablierte Anbieter sind oft SOC2-, ISO 27001- oder C5-zertifiziert. Für interne Tools muss diese Compliance selbst sichergestellt werden.

Praxisbeispiele: Wer intern baut

McKinsey's interne KI-Plattform "Lilli" wird von 75% der 43.000 Mitarbeiter monatlich genutzt und hat nachweislich über 50.000 Beraterstunden in höherwertige Analysearbeit umgewandelt. PwC's "ChatPwC" erstellt Compliance-Reports und verbessert die Audit-Transparenz. Bei Volkswagen AG wurden im Datenschutz-Bereich mehrere KI-basierte Eigenentwicklungen produktiv eingesetzt: ein Privacy-Chatbot, ein automatisiertes Dokumentationssystem und ein KI-gestütztes Vertragsanalyse-Tool — Entwicklungszeit: Wochen, nicht Monate.

Die hybride Strategie

Die sinnvollste Antwort ist in den meisten Fällen weder reines Build noch reines Buy, sondern ein hybrides Modell: Standardprozesse (eDiscovery, CLM, Research) mit etablierten Tools abdecken und gleichzeitig für unternehmens­spezifische Anwendungen — insbesondere solche mit sensiblen Daten oder einzigartigen Governance-Anforderungen — interne Kompetenz aufbauen. Der EU AI Act verlangt Governance-Compliance unabhängig davon, ob ein KI-System eingekauft oder intern entwickelt wurde.

Strategische Empfehlung: Beginnen Sie mit einem klar definierten internen Pilotprojekt — z.B. einem Policy-Chatbot oder einem automatisierten Compliance-Check für ein spezifisches Regelwerk. Nutzen Sie vorhandene Foundation Models über APIs, kombiniert mit eigenen Daten via RAG. Messen Sie Ergebnisse rigoros. Und bauen Sie parallel ein internes Kompetenzteam auf, das juristische Expertise mit technischem Verständnis verbindet. Deloitte's State of AI Report (2026) zeigt: Nur 1 von 5 Unternehmen hat ein ausgereiftes Governance-Modell für KI — hier liegt die strategische Chance.

05 — REGULATORIK

EU AI Act, DSGVO und die Compliance-Pflichten für KI-Systeme

Was Rechts- und Compliance-Abteilungen über die KI-Regulierung wissen müssen — und welche Rolle sie dabei spielen
▸ Artikel lesen
+

Die Regulierung künstlicher Intelligenz ist kein fernes Zukunftsthema mehr. Der EU AI Act — die weltweit erste umfassende KI-Verordnung — tritt ab August 2026 in voller Breite in Kraft. Parallel verschärfen sich nationale Regelungen weltweit. Für Rechts- und Compliance-Abteilungen entsteht eine doppelte Herausforderung: Sie müssen die KI-Regulierung anwenden (auf die KI-Systeme ihres Unternehmens) und gleichzeitig selbst einhalten (bei eigenen KI-Anwendungen).

EU AI Act: Risikobasierter Ansatz

Der EU AI Act klassifiziert KI-Systeme in vier Risikokategorien. Für den Legal- und Compliance-Bereich ist besonders relevant, dass KI-Systeme, die im Bereich der Rechtspflege und demokratischer Prozesse eingesetzt werden, als "High Risk" eingestuft werden (Annex III, Punkt 8). Dies umfasst KI-gestützte Rechtsberatung, automatisierte Rechtsauslegung und Systeme, die Einfluss auf behördliche Entscheidungen haben. Die Pflichten für High-Risk-Systeme sind umfangreich:

  • Risikomanagementsystem (Art. 9): Laufende Identifizierung, Bewertung und Minderung von Risiken über den gesamten Lebenszyklus.
  • Daten-Governance (Art. 10): Anforderungen an Trainings-, Validierungs- und Testdaten — Relevanz, Repräsentativität, Fehlerfreiheit.
  • Technische Dokumentation (Art. 11): Detaillierte Beschreibung des Systems, seiner Fähigkeiten, Grenzen und Risiken.
  • Menschliche Aufsicht (Art. 14): Das System muss so gestaltet sein, dass Menschen es wirksam überwachen und bei Bedarf eingreifen können.
  • Genauigkeit, Robustheit, Cybersicherheit (Art. 15): Nachweisbare Leistungsstandards und Schutz vor Manipulation.

Die Sanktionen sind erheblich: Bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes für die schwerwiegendsten Verstöße. Die gestufte Umsetzung läuft seit Februar 2025 (Verbot unzulässiger Praktiken) und wird bis August 2027 (Hochrisiko-Systeme) vollständig durchgesetzt.

DSGVO und KI: Das bestehende Fundament

Unabhängig vom AI Act bleibt die DSGVO das regulatorische Fundament für jeden KI-Einsatz, der personenbezogene Daten verarbeitet. Besonders relevant sind Art. 22 (Recht, nicht einer ausschließlich automatisierten Entscheidung unterworfen zu werden), Art. 35 (Pflicht zur Datenschutz-Folgenabschätzung bei hohem Risiko), Art. 25 (Data Protection by Design and by Default) sowie die allgemeinen Grundsätze der Zweckbindung und Datenminimierung. Die Kombination von AI Act und DSGVO schafft ein dichtes Regelwerk, das juristische Expertise in der Umsetzung erfordert.

Internationale Entwicklungen

Die EU ist nicht allein. Der Colorado AI Act tritt im Juni 2026 in Kraft und reguliert "High-Risk AI Systems" mit Transparenz- und Berichtspflichten. Der Illinois AI in Employment Act (Januar 2026) verbietet diskriminierende KI im HR-Bereich. In Kanada liegt der Artificial Intelligence and Data Act (AIDA) zur Abstimmung. China hat mit den Interim Measures for the Management of Generative AI bereits einen eigenen Regulierungsrahmen geschaffen. Für global operierende Unternehmen entsteht ein komplexes Geflecht sich überlagernder Anforderungen.

Die Rolle der Juristen: Gestalter und Anwender

Für Rechts- und Compliance-Verantwortliche ergibt sich eine einzigartige Doppelrolle. Als Gestalter definieren sie die internen KI-Governance-Frameworks, interpretieren regulatorische Anforderungen und beraten das Unternehmen bei der rechtskonformen KI-Implementierung. Als Anwender nutzen sie selbst KI-Tools und müssen sicherstellen, dass diese den regulatorischen Anforderungen genügen. Diese Doppelrolle erfordert eine neue Art von Kompetenz: juristische Expertise gepaart mit technischem Verständnis und Governance-Design-Fähigkeiten.

Spannungsfeld: Die zentrale Herausforderung liegt im Gleichgewicht zwischen Innovation und Verantwortung. Unternehmen, die aus regulatorischer Vorsicht auf KI verzichten, werden nicht sicherer — sie werden langsamer und weniger wettbewerbsfähig. Die Lösung: "Governance by Design" — KI-Compliance wird von Beginn an in die Architektur integriert, nicht nachträglich aufgesetzt. Wer KI-Governance als strategisches Asset begreift statt als regulatorische Last, kann schneller skalieren, weil die Compliance-Fragen bereits beantwortet sind.

06 — ORGANISATION & KULTUR

Warum KI keine "Plug and Play"-Lösung ist — und was es wirklich braucht

Organisatorische Voraussetzungen, kultureller Wandel und die Kunst der kontinuierlichen Anpassung
▸ Artikel lesen
+

Die technologische Seite der KI-Transformation bekommt die meiste Aufmerksamkeit: Welches Tool? Welches Modell? On-Premise oder Cloud? Doch die eigentliche Engstelle liegt selten in der Technologie — sie liegt in der Organisation. McKinsey's 2025 AI Survey zeigt: Die größten Hürden für erfolgreiche KI-Adoption sind nicht technischer Natur, sondern betreffen fehlende Talente (35%), unklare Governance (33%) und mangelnde Führungs­unterstützung (28%). Die Technologie ist bereit. Die meisten Organisationen sind es nicht.

Warum traditionelle Rechtsabteilungen auf KI schlecht vorbereitet sind

Rechts- und Compliance-Abteilungen gehören zu den am stärksten strukturkonservativen Bereichen in Unternehmen — und das hat gute Gründe. Juristische Arbeit basiert auf Präzision, Präzedenz und Verlässlichkeit. Fehler haben reale Konsequenzen: Haftung, Reputationsschäden, regulatorische Sanktionen. Diese Kultur der Risikominimierung steht im Spannungsverhältnis zur Natur von KI-Systemen, die probabilistisch arbeiten, Fehler produzieren und kontinuierliches Experimentieren erfordern.

Hinzu kommt: Die juristische Ausbildung bereitet nicht auf technologische Transformation vor. Weder das Studium noch die Referendarausbildung vermitteln systematisch technologisches Grundverständnis, Datenaffinität oder agile Arbeitsmethoden. Die Folge: Viele Juristen begegnen KI mit einer Mischung aus Faszination und Unsicherheit — und greifen reflexhaft zu dem, was sie kennen: externe Berater, Standardprozesse, Abwarten.

Was es stattdessen braucht: Fünf Voraussetzungen

1. Kontinuierliche Weiterbildung — nicht als Event, sondern als System. Ein einmaliger Workshop zu "KI für Juristen" reicht nicht. Notwendig ist ein systematischer Kompetenzaufbau, der technologisches Grundwissen, Prompt Engineering, Datenkompetenz und KI-Ethik umfasst. Unternehmen wie Allen & Overy haben eigene AI-Trainingsprogramme aufgebaut; PwC hat über 75.000 Mitarbeiter in KI-Kompetenzen geschult — mit messbaren Produktivitätssteigerungen.

2. Interdisziplinäre Zusammenarbeit. KI-Projekte im Legal-Bereich scheitern, wenn sie isoliert in einer Abteilung betrieben werden. Erfolgreiche Implementierungen erfordern gemischte Teams aus Juristen (Domänenwissen), IT/Data Science (technische Umsetzung), Operations (Prozessintegration) und Compliance (Governance). Diese interdisziplinäre Arbeitsweise ist für viele Rechtsabteilungen Neuland — und erfordert bewusste organisatorische Entscheidungen.

3. Iterative Lösungsansätze statt Wasserfall-Projekte. Die klassische juristische Arbeitsweise — Sachverhalt aufnehmen, analysieren, abschließendes Gutachten erstellen — ist linear. KI-Projekte erfordern Iteration: schnelle Prototypen, Testen, Feedback, Anpassen, erneut Testen. Das Konzept des "Minimum Viable Product" (MVP) ist Juristen fremd — aber für erfolgreiche KI-Implementierung unverzichtbar. Start small, test fast, scale what works.

4. Kultur der Offenheit und kritischen Reflexion. KI-Systeme machen Fehler — das ist nicht das Problem. Das Problem ist, wenn eine Organisationskultur Fehler als Versagen bewertet statt als Lernchance. Erfolgreiche KI-Adoption erfordert eine Kultur, in der Mitarbeiter offen über KI-Fehler sprechen können, in der Experimentieren erwünscht ist und in der "Ich weiß nicht, ob das funktioniert — lass es uns testen" ein akzeptabler Satz ist.

5. Führung als Enabler. Ohne aktive Unterstützung der Abteilungsleitung oder des General Counsel scheitern KI-Initiativen an institutioneller Trägheit. Führungskräfte müssen nicht selbst KI-Experten werden — aber sie müssen die strategische Richtung setzen, Ressourcen bereitstellen, psychologische Sicherheit schaffen und den Wandel vorleben. McKinsey zeigt: Unternehmen mit aktiver C-Suite-Beteiligung an KI-Initiativen erzielen 2,6-mal häufiger messbaren Wertbeitrag.

Kernbotschaft: Die KI-Transformation von Rechts- und Compliance-Abteilungen ist zu 30% ein Technologie-Thema und zu 70% ein Organisations- und Kultur-Thema. Wer nur in Tools investiert, ohne die Organisation auf kontinuierliches Lernen, interdisziplinäre Zusammenarbeit und iteratives Arbeiten umzustellen, wird bestenfalls punktuelle Effizienzgewinne erzielen — aber die strategische Transformation verpassen. Die Technologie entwickelt sich exponentiell. Die entscheidende Frage ist, ob die Organisation Schritt halten kann.

✍️ Real Voice
Meine eigenen Gedanken
In diesem Bereich finden Sie ausschließlich von mir — Dr. Nicolai Kruck — persönlich verfasste Texte. Keine KI, keine Automatisierung, keine generierten Inhalte. Nur eigene Überlegungen, Erfahrungen und Perspektiven.

Warum dieser Bereich? Diese Webseite ist bewusst ein Experiment. Design, Struktur und alle übrigen Inhalte dieser Seite wurden vollständig durch Künstliche Intelligenz erstellt – vom Layout über die Texte bis hin zur Quellenrecherche. Ich wollte testen, was heute möglich ist, wenn man eine komplette Webpräsenz durch KI gestalten lässt.

Dieser „Real Voice"-Bereich ist die bewusste Ausnahme: Hier schreibe ich selbst. Authentisch, ungeschliffen, menschlich. Denn gerade im Zeitalter der KI wird die echte, persönliche Stimme wertvoller denn je.

🤖 Alle anderen Inhalte dieser Webseite wurden durch KI generiert

DIE ZUNKUNFT IST JETZT – UND MORGEN IST SIE ANDERS

Dr. Nicolai Kruck · Februar 2026
✦ Klicken zum Lesen
+

Hallo lieber Besucher:innen,
in diesem Bereich meiner Webseite theailawyer.org finden sich ausschließlich durch mich erstellte Inhalte – KI-generierte Inhalte finden hier keinen Einzug.

Damit schaffe ich einen Raum auf dieser Seite, um meine persönlichen Sichtweisen und Kommentare platzieren zu können. Zudem erkläre ich in diesem Bereich die Hintergründe und die Zwecke dieses Projektes.

Warum habe ich theailawyer.org geschaffen

Als Rechtsanwalt hatte ich lange Zeit in erster Linie dergestalt mit IT-Fragestellungen zu tun, als dass ich als Anforderer für Rechts- und Complianceapplikationen gegenüber einer IT-Abteilung oder einem externen Anbieter agiert habe. Ich habe dann (oft wochenlang) auf die Ergebnisse der IT-Abteilung oder eines externen Anbieters gewartet. Ich war in der Regel froh, wenn mein Computer funktioniert hat und ich meine Arbeit und Privatleben mit etwas IT-Unterstützung vereinfachen konnte. Ich hatte auch nie ein ausgewiesenes Interesse an den technischen Aspekten zu diesem Thema. Zu mühsam und abstrakt kam mir diese Welt vor und ich ging davon aus, dass dies für immer so bleiben würde.

Nachdem ich im Jahr 2018 meine aktuelle Funktion im Bereich des Datenschutzes aufnahm, befasste ich mich zwangsläufig etwas intensiver mit dem Thema Daten und IT-Systeme. Aber ein tieferes Interesse an IT-Themen kam dadurch nicht bei mir auf.

Nachdem OpenAI ChatGPT basierend auf GPT-3.5 im November 2022 veröffentlicht hatte, drangen die Verlautbarung über die KI-Revolution auch zu mir vor und ich begann, mich mit dem Thema Anfang 2023 näher zu befassen.

So wie es wohl den meisten von uns ergangen ist, war ich sehr beeindruckt und fasziniert von den Ergebnissen, die nun durch die Sprachmodelle ausgeworfen wurden. Das Feuer war entfacht. Insbesondere fand ich es spannend, darüber nachzudenken und mich auszutauschen, wie diese neue Technologie sinnvoll in meinem Arbeitsalltag und in große Unternehmensorganisationen eingesetzt werden kann und habe mit meinem Team einige Projekte dazu durchgeführt.

Dann kam der Januar 2026: ich erfuhr durch meine Informationskanäle von Claude Code und habe nicht gezögert, mir den etwas kostspieligeren Account zuzulegen. Diese Erfahrung verändert meine Sichtweise auf das Thema grundlegend. Seit Mitte Januar verbringe ich nun viel Zeit damit, die unterschiedlichsten Projekte mit Claude zu betreiben.

Die Webseite theailawyer.org ist eines der Ergebnisse meiner Versuche, mit Claude Code produktiv zu werden.

Hätte mir vor ein paar Wochen jemand erklärt, dass ich selber eine Webseite bauen und betreiben könnte, dann hätte ich ihn wohl schlicht ausgelacht. Heute weiß ich, dass JEDER (einigermaßen affine und neugierige) Mensch mit einem Computer und Internetzugang eine Webseite bauen und betreiben kann.

Somit verfolge ich mit dieser Webseite zwei Zwecke: Zum einen dient sie mir als Experimentierfeld, um herauszufinden und zu zeigen, was im Februar 2026 alles mit KI möglich ist. Zum anderen will ich mit dieser Webseite eine Plattform bieten, um die Nutzung von KI im juristischen Kontext zu beleuchten. Dieser Aspekt hat wiederum zwei Facetten für mich: 1. wie können Juristen KI direkt einsetzen, um effektiver zu arbeiten. 2. Wie können Juristen KI nutzen, um erforderliche Tools selbständig entwickeln und betreiben zu können.

Mein Experimentierfeld

Diese Webseite und auch deren Inhalte (bis ausdrücklich auf diesen Bereich) sind zu 100% KI-generiert. Ich habe nicht eine Silbe der Inhalte selber geschrieben und ich habe nicht eine Zeile Code dafür geschrieben. Die derzeit sichtbare Webseite ist das Ergebnis vieler Prompts und einiger Konversationen mit Claude, um die technischen Hürden zu überwinden. Ich werde die Webseite kontinuierlich verändern, sobald ich neue Ideen habe und diese technisch umsetzen kann.

Wie auch andere dies tun können? Einfach Claude (oder eine andere KI Eurer Wahl) fragen!

Informations- und Austauschplattform

Diese Webseite ist nicht für KI-Experten gedacht. Vielmehr will ich hier Informationen und Einschätzungen zum sinnhaften und effektiven Einsatz von KI im juristischen Bereich und insbesondere in Großunternehmen platzieren.

Mir ist natürlich die Kontroverse bewusst, dass ich hier eine KI die Frage beleuchten lasse, welche Auswirkungen die KI-Revolution auf die Tätigkeiten von Juristen:innen haben wird. Spannend wird es sein zu sehen, ob und wie die KI ihre eigene Rolle beurteilt und welche Zukunftsszenarien und Visionen sie uns aufzeigen wird. Wichtig ist mir klarzustellen, dass die Inhalte von einer KI generiert werden. Mein Eingreifen wird zunächst darin bestehen, die strategische Ausrichtung der Inhalte zu beeinflussen, wenn ich feststelle, dass dies erforderlich ist. Ich würde auch eingreifen, wenn objektiv falsche Informationen wiedergegeben werden sollten. Wenn ich inhaltliche Themen hinzufügen oder verändern will, dann gestalte ich meine Prompts stets so, dass sich die KI an gesicherten Informationen und Quellen ausrichten und wissenschaftliche Maßstäbe anwenden soll. Zudem soll es stets Nachweise und Referenzen geben, wenn das möglich ist.

Meine ersten Erfahrungen

Bereits nach den ersten Stunden meiner Gehversuche mit Claude Code war für mich klar, dass die KI-Revolution nunmehr tatsächlich angekommen ist und es nicht übertrieben ist, von einer Revolution zu sprechen. Ich würde zudem von einer regelrechten Befreiung sprechen. Mit den neuen Mitteln ist es möglich, Applikationen selbständig zu gestalten und auch in Betrieb zu nehmen. Der Kreativität scheinen kaum Grenzen gesetzt.

Als Juristen:innen waren wir stets (nur) die Anforderer für IT-Systeme. Wir mussten den IT-Kollegen oder externen Dienstleistern erklären, welche Tools, Workflows, Uploadfelder und Knöpfchen wir brauchen, um etwa ein Datenschutzmanagementsystem oder ein Business-Partner-Due-Diligence-Prozess zu digitalisieren. Wochen später haben wir Ergebnisse gesehen und das nächste Release stand dann wieder erst in vielen Monaten an.

Diese Zeiten sind wohl vorbei. Davon gehe ich fest aus. Compliance- und Legal-Applikationen lassen sich mit gutem Prompting (Vibe Coding) in überschaubarer Zeit zumindest in ein MVP-Stadium bringen und das macht sogar richtig Spaß. Ich habe in wenigen Stunden eine Familien-App (gemeinsame Einkaufsliste, gemeinsamer Kalender, gemeinsames Tracking von Ausgaben, Chatfunktion) geschaffen und diese synchron auf unsere Smartphones gebracht. Ich habe in wenigen Stunden das Grundgerüst für eine Datenschutzmanagementplattform gepromptet. Das Erstellen und Launchen dieser Webseite war ebenfalls in wenigen Arbeitsstunden erledigt. Ich bin bis dato an keine Grenzen dabei gestoßen und die KI hat mir keine Versprechungen zur Umsetzbarkeit gemacht, die final nicht eingehalten werden konnten.

Das ist der Grund, warum ich so voller Euphorie und Tatendrang bin. Mit dieser Technologie erreiche ich eine ganz neue Dimension der Effektivität, der Produktivität und der Kreativität. Es scheint keine Grenzen zu geben und mir werden Möglichkeiten eröffnet, von denen ich nicht zu träumen gewagt hätte. Es fühlt sich an, als würde eine unüberwindbare Hürde plötzlich fallen.

Vielleicht sind die Einschätzungen von Matt Schumer (Etwas Großes passiert) mit einer ordentlichen Portion Bay-Area-Hype versetzt. Aber einen substanziellen Kern sehe ich durchaus.

Ebenfalls sehr faszinierend sind die Entwicklungen rund um OpenClaw (https://openclaw.ai); hier kann man sich einen Agenten einrichten, der digitale Aufgaben (vom Bearbeiten der Inbox bis hin zur Pflege des eigenen Social Media Auftrittes) eigenständig übernimmt. Derzeit ergeben sich durch dieses Vorgehen erhebliche Sicherheitsfragestellungen, da der Agent weitreichende Berechtigungen des Users übernehmen muss, um diese Aufgaben ausführen zu können. Ich werde umgehend berichten, wenn ich mich dem Thema weiter angenähert habe.

Was bedeutet das für Rechts- und Complianceabteilungen in Unternehmen?

Die KI-getriebene Unterstützung von Juristen:innen bei kautelarjuristischen Aufgaben, beim Erfassen und Komprimieren von Sachverhalt, bei der Recherche nach Rechtsprechung und Kommentarmeinungen oder dem Erstellen von Schriftsätzen und Gutachten sollte mittlerweile auch bei den In-House Anwalt:innen angekommen sein. Etliche Anbieter haben sich in Stellung gebracht und bieten diese Dienste an, teilweise mit etwas anderen Vorzeichen und Fähigkeiten. Wir werden sehen, welche Anbieter den nun entstehenden Konkurrenzkampf überleben werden.

Noch spannender aus meiner Sicht ist die Frage nach der Zukunft der Entwickler und Anbieter für Rechts- und Compliancesoftware wie etwa EQS, Proxora oder OneTrust. Sollten die sich deutlich abzeichnenden Entwicklung weiter so bestätigen, dann können Compliance- und Rechtsabteilungen diese Software in naher Zukunft selbst konzipieren und operationalisieren. Dies hätte nicht nur Kostenvorteile für die Unternehmen. Die Unternehmen wären auch in der Lage, ein Tool exakt nach ihren Bedürfnissen zu gestalten und könnten sehr flexibel auf Anpassungsbedarfe reagieren, ohne auf träge externe Kräfte angewiesen zu sein. Zudem hätte man die vollständige Souveränität über seine Daten.

Unternehmen, die dieses Vorgehen beherrschen, haben einen enormen Wettbewerbsvorteil.

Selbstredend ist es mit der Erstellung eines ersten "theoretischen" Tools oder eines MVP nicht getan und es gibt einige Hürden zu nehmen, bis Endanwender im Unternehmen ein neues, selbstentwickeltes Tool operativ nutzen können. Im Fokus dürften dabei IT-Sicherheitsfragen, Dokumentations- und IT-Compliance stehen. Aber auch Fragen wie eine Qualitätssicherung und umfangreiche und dokumentierte Tests oder Fragen der kontinuierlichen Wartung müssen geklärt werden.

Die Anforderungen an die IT-Abteilungen zur Begleitung solcher Prozesse dürften sich damit deutlich verändern und der Erfolg oder Misserfolg solcher Projekte dürfte maßgeblich von einer funktionierende symbiotischen Zusammenarbeit zwischen Anforderern, internen IT/KI-Experten und weiteren Stakeholdern abhängen.

Was ich vor allem als große Herausforderung wahrnehme, ist die atemberaubende Geschwindigkeit der Entwicklung der Technologie und den damit einhergehenden Möglichkeiten. Aufgaben, welche die KI vor sechs Monaten nicht oder nur mäßig erledigen konnte, funktionieren heute sehr gut. Ansätze, die vor einem Jahr noch state of the art waren, sind heute gnadenlos überholt. Diese Schnelllebigkeit wird sich noch weiter steigern und es wird die große Kunst sein, die wirklich relevanten Veränderungen zu erfassen und entsprechen umzusetzen.

Was heißt das für Großunternehmen? Wenn sich die Zukunft (zu) schnell verändert, dann bleibt letztlich nicht viel anderes übrig, als sich möglichst flexibel aufzustellen, um schnell auf neue Technologien reagieren zu können. Großunternehmen sind nicht gut darin, sich flexibel aufzustellen. Große Organisationen machen es erforderlich, in festen Prozessen und Strukturen zu agieren, damit viele kleine Vorgänge stets den gleichen Weg gehen und zu vergleichbaren Ergebnissen führen. Zudem treffen wir in etablierten und über Jahrzehnte gewachsenen Unternehmen auf eine sehr diversifizierte IT-Landschaft. Dieser Umstand führt zu weniger Flexibilität und macht die Anbindung erforderlicher Daten sehr aufwendig.

Eine finale Antwort auf diese Herausforderungen habe ich auch nicht. Wichtig scheint mir, dass die Unternehmen so schnell wie möglich praktische Erfahrungen sammeln und die KI-Revolution als einen fortwährenden Prozess begreifen und nicht als eine einmalige Disruption, die abgearbeitet werden könnte. Interessant dürfte auch die Frage werden, ob es ausreichend ist, die bestehenden Prozesse mit KI zu unterstützen, oder ob nicht vielmehr die Prozesse den Fähigkeiten der KI angepasst werden müssen, um deren volles Potenzial ausschöpfen zu können.

Ich bin sehr gespannt darauf, wie sich Großunternehmen dieser Herausforderung stellen werden und ich werde berichten, sobald ich weitere Erfahrungen dazu machen durfte.

Nicolai Kruck, im Februar 2026


Sicherheit & Regulierung
Innovation sicher ermöglichen
Drei Dimensionen, die jedes KI-Projekt im Legal- und Compliance-Bereich von Tag eins an adressieren muss.
🔒

Datenschutz (DSGVO)

KI-Systeme, die personenbezogene Daten verarbeiten, unterliegen den vollen Anforderungen der DSGVO — einschließlich Art. 22 (automatisierte Einzelentscheidungen), Art. 35 (DSFA) und den Grundsätzen der Datenminimierung.

  • Privacy by Design & by Default
  • Datenschutz-Folgenabschätzung für KI
  • Transparenz über algorithmische Entscheidungen
  • Recht auf menschliche Überprüfung
🏛️

EU AI Act & Regulierung

Der EU AI Act klassifiziert KI-Systeme nach Risiko. Legal-KI fällt häufig unter "High Risk" mit umfangreichen Pflichten für Anbieter und Betreiber gleichermaßen.

  • Risikoklassifizierung & Konformitätsbewertung
  • Technische Dokumentation & Audit-Trails
  • Menschliche Aufsicht & Eskalationspfade
  • Qualitätsmanagementsystem für KI
🛡️

IT-Sicherheit & Souveränität

KI-Systeme erweitern die Angriffsfläche. Gerade bei autonomen Agenten steigt der Bedarf an Cybersecurity-Governance exponentiell — von Prompt Injection bis Datenexfiltration.

  • On-Premise oder kontrollierte Cloud-Umgebung
  • Verschlüsselung, Zugriffskontrolle, Logging
  • ISO/IEC 42001 für KI-Risikomanagement
  • Sovereign AI: Datenhoheit im eigenen Rechtsraum

Wissen & Studien
Kuratierte Quellensammlung
Studien, Reports und Analysen führender Beratungen, Regulierungsinstitutionen und Thinktanks zur KI-Transformation in Legal, Compliance und Governance.
Beratungen & Analysten
Regulierung & Rechtsrahmen
Legal Tech & Agentic AI
Unternehmensberatungen: Strategische KI-Reports
BCGSep 2025

The Widening AI Value Gap — Build for the Future

1.250 Unternehmen weltweit: Nur 5% generieren skalierten KI-Wert. 60% berichten trotz hoher Investitionen minimale Ergebnisse. Agentic AI liefert bereits 17% des KI-Werts.

Strategy
BCGDez 2025

Targets Over Tools: The Mandate for AI Transformation

Warum Boards KI von einem digitalen Nebenprojekt zur Kern-Performance-Agenda machen müssen. Von Piloten zu P&L-Impact.

Board Governance
AccentureJan 2026

The New Rules of Platform Strategy in the Age of Agentic AI

Unternehmen mit alignierter KI-, Plattform- und Geschäftsstrategie erreichen 2,2× Revenue Growth und 37% EBITDA Lift. 94% der Führungskräfte erwarten tiefgreifende Veränderungen.

Platform Strategy
Accenture2025

Six Key Insights to Maximize ROI from Agentic AI

C-Suite-Report: Wann interne Agentic-Systeme bauen, wann kaufen? Die nächsten 3 Jahre definieren die Wettbewerbsordnung des nächsten Jahrzehnts.

C-Suite Strategy
Accenture2025

Technology Vision 2025: AI — A Declaration of Autonomy

4.000 Executives aus 28 Ländern: 69% sehen dringenden Reinvention-Bedarf. KI-gestützte Softwareentwicklung demokratisiert Code und ermöglicht maßgeschneiderte Unternehmenslösungen.

Technology Vision
Squire Patton Boggs2025

The Agentic AI Revolution: Managing Legal Risks

EU Product Liability Directive schließt Software und KI als "Produkt" ein. Neue Haftungsrahmen für autonome Agenten. ICO-Report zu Datenschutzimplikationen.

Legal Analysis
NAVEX2025

AI Governance, Risk & Compliance — Preparing for the Future

Nur 18% der Organisationen haben ein unternehmensweites Council für verantwortungsvolle KI-Governance (McKinsey). Warum Continuous Monitoring Pflicht wird.

GRC
Deloitte / Harvard LawApr 2025

Strategic Governance of AI: A Roadmap for the Future

AI Governance Roadmap für Boards: End-to-End-Framework von der Risikobewertung über Compliance-Strukturen bis zur strategischen Steuerung.

Governance Framework
Profil
Dr. Nicolai Kruck — The AI Lawyer

Mit über 17 Jahren Erfahrung in Compliance, Datenschutz, Kartellrecht und Unternehmensrecht in der Automobilindustrie verbinde ich tiefe juristische Expertise mit einem klaren Blick für technologische Transformation. Mein Weg — von internationalen Kanzleien wie Clifford Chance und Noerr, über In-House-Positionen bei Infineon Technologies und MAN SE, bis zur Leitung von Compliance- und Privacy-Teams bei Porsche und Volkswagen AG — hat mir eine einzigartige Perspektive auf die Zukunft der Rechtsarbeit gegeben.

Als Head of Group Privacy International bei Volkswagen AG leite ich ein Team von neun Datenschutzspezialisten und treibe aktiv den Einsatz von KI zur Optimierung von Legal-Prozessen voran: Privacy-Chatbots, automatisierte Dokumentation, KI-gestützte Vertragsprüfung. Ich bin überzeugt, dass die Zukunft der In-House-Rechtsarbeit an der Schnittstelle von juristischer Exzellenz, technologischer Kompetenz und strategischer Führung liegt.

"Compliance- und Rechtsabteilungen werden durch den gezielten Einsatz von Künstlicher Intelligenz ein neues Niveau an Effizienz, Qualität und Geschwindigkeit erreichen — wenn sie den Mut haben, den Wandel aktiv zu gestalten."

— Dr. Nicolai Kruck
  • KI in Legal OperationsChatbots, automatisierte Dokumentation, Vertragstools, Prozessautomatisierung
  • Datenschutz & PrivacyInternationale DSGVO-Compliance, AI Governance, technischer Datenschutz
  • Compliance LeadershipAnti-Korruption, Business Partner Due Diligence, Kartellrecht
  • Digitale TransformationSoftwareauswahl, Implementierung & Optimierung von Compliance-Prozessen
  • Team Building & FührungHigh-Performance Teams, vertrauensbasiertes Management, Innovationskultur
  • Automotive IndustrieVW, Porsche, MAN, Infineon — tiefe Branchenkenntnis

Karriere
Stationen der Führungslaufbahn
2023 — Heute

Head of Group Privacy International, Divisional Support

Volkswagen AG

9 Spezialisten. KI-Tools für Privacy: Chatbot, automatisierte Dokumentation, Vertragsprüfung. Internationaler Datenschutz, AI Governance, M&A Privacy.

2020 — 2022

Leiter Technischer & Internationaler Datenschutz

Volkswagen AG

5 Spezialisten. Strategische Ausrichtung auf internationale Anforderungen. Vorsitz Konzern-Steuerungskreis.

2018 — 2020

Senior Member, Agile Task Force — US Diesel Monitorship

Volkswagen AG

Zentrale Schnittstelle zwischen US-Monitor und Compliance-Organisation.

2016 — 2018

Head of Legal and Compliance

Porsche Middle East & Africa FZE

Aufbau des lokalen Compliance-Programms. Legal Services für 15+ Märkte.

2012 — 2016

Consultant Compliance (Teamleiter)

MAN SE

Third-Party Due Diligence, Kartellrecht, EU-Lkw-Kartellverfahren.

2008 — 2012

Syndikusanwalt & Associate

Infineon Technologies · Noerr · Clifford Chance

Kartellrecht, Compliance, Vertragsgestaltung. Internationale Kanzlei-Grundlagen.


Ausblick
Nächste Ausbaustufen
01

Whitepaper-Serie

Vertiefte Analysen zu Build vs. Buy, AI Governance Frameworks und branchenspezifischen Implementierungsstrategien — zum Download.

02

Thought-Leadership-Blog

Regelmäßige Kommentare zu regulatorischen Entwicklungen, neuen KI-Tools und strategischen Implikationen für Legal & Compliance.

03

Speaking & Advisory

Vorträge, Paneldiskussionen und strategische Beratung für Unternehmen, die ihre Legal- und Compliance-Funktion KI-ready machen wollen.

Kontakt
Die Zukunft gemeinsam gestalten

Interesse an KI-Transformation in Legal & Compliance, Vorträgen oder strategischem Austausch?

Oder schreiben Sie direkt

Mit dem Absenden erklären Sie sich mit der Verarbeitung Ihrer Angaben zum Zweck der Kontaktaufnahme gemäß unserer Datenschutzerklärung einverstanden. Ihre Daten werden ausschließlich zur Bearbeitung Ihrer Anfrage verwendet und nicht an Dritte weitergegeben. Es werden keine Cookies gesetzt.

✓ Vielen Dank! Ihre Nachricht wurde erfolgreich gesendet.