Loading
DeSight Studio LogoDeSight Studio Logo
Deutsch
English
//
DeSight Studio Logo
  • Über uns
  • Unsere Projekte
  • Commerce & DTC
  • Performance Marketing
  • Software & API Development
  • KI & Automatisierung
  • Social Media Marketing
  • Markenstrategie & Design

New York

DeSight Studio Inc.

1178 Broadway, 3rd Fl. PMB 429

New York, NY 10001

United States

+1 (646) 814-4127

München

DeSight Studio GmbH

Fallstr. 24

81369 München

Deutschland

+49 89 / 12 59 67 67

hello@desightstudio.com

Zurück zum Blog
Insights

Agentic AI Governance: Wer kontrolliert 2026 die KI-Agenten?

Carolina Waitzer
Carolina WaitzerCEO & Co-Founder
19. März 202619 Min. Lesezeit
Agentic AI Governance: Wer kontrolliert 2026 die KI-Agenten? - Symbolbild

⚡ TL;DR

19 Min. Lesezeit

Agentic AI Governance ist entscheidend für 2026, da autonome KI-Agenten und Multi-Agent-Systeme zunehmend eigenständige Geschäftsentscheidungen treffen, wofür klassische IT-Governance-Frameworks unzureichend sind. Effektive Governance basiert auf vier Säulen: Verantwortlichkeit, Transparenz, Kontrolle und Anpassungsfähigkeit. Ein risikobasierter Ansatz und Governance-as-Code sind dabei essenziell, um Risiken wie Scope-Drift zu managen und regulatorische Anforderungen, insbesondere durch den EU AI Act, zu erfüllen.

  • →Klassische IT-Governance ist für autonome KI-Agenten und Multi-Agent-Systeme unzureichend.
  • →Ein dediziertes 4-Säulen-Framework (Verantwortlichkeit, Transparenz, Kontrolle, Anpassungsfähigkeit) ist notwendig.
  • →Human-in-the-Loop allein reicht oft nicht aus; kontextbasierte Schwellenwerte und Circuit Breaker sind effektiver.
  • →Governance-by-Design und Governance-as-Code sind entscheidend für Skalierbarkeit und Compliance.
  • →Der EU AI Act erfordert ab 2026 eine Risikoklassifizierung und Compliance für agentische Systeme.

Agentic AI Governance: Wer kontrolliert 2026 die KI-Agenten?

Autonome KI-Agenten verhandeln Verträge, steuern Lieferketten und führen Transaktionen durch – ohne menschliches Eingreifen. Was vor wenigen Jahren nach Science-Fiction klang, ist 2026 operative Realität in Unternehmen jeder Größe. Doch mit dieser Autonomie wächst ein Problem, das viele Führungskräfte unterschätzen: Die Governance hält nicht Schritt. Unternehmen setzen Agentic AI in kritischen Geschäftsprozessen ein, ohne Governance-Strategien zu haben, die das Kontroll- und Haftungsrisiko adressieren. Wer haftet, wenn ein Agent eine fehlerhafte Lieferantenentscheidung trifft? Wer bemerkt, wenn ein Multi-Agent-System seine definierten Grenzen schrittweise überschreitet?

Dieser Leitfaden zeigt, wie Unternehmen 2026 die Kontrolle über ihre KI-Agenten behalten – mit einem praxiserprobten Governance-Framework, das technische Kontrollmechanismen, organisatorische Verantwortlichkeiten und regulatorische Anforderungen verbindet.

"Autonomie ohne Governance ist kein Fortschritt – es ist ein Kontrollverlust auf Raten."

Was Agentic AI von klassischer KI unterscheidet

Bevor du ein Governance-Framework aufbauen kannst, musst du verstehen, was Agentic AI fundamental von klassischen KI-Systemen unterscheidet. Denn genau diese Unterschiede machen herkömmliche Kontrollansätze wirkungslos.

Autonomie statt Assistenz

Klassische KI-Systeme – etwa ein Empfehlungsalgorithmus oder ein Chatbot – reagieren auf Eingaben und liefern Ergebnisse. Agentic AI geht einen entscheidenden Schritt weiter: Sie agiert autonom, trifft Entscheidungen und führt Aktionen aus, ohne dass jeder Schritt menschlich validiert wird. Ein Einkaufsagent vergleicht nicht nur Preise und zeigt sie an – er verhandelt mit Lieferanten-APIs, platziert Bestellungen und passt Konditionen an. Diese Autonomie ist der zentrale Unterschied und gleichzeitig die größte Governance-Herausforderung.

Multi-Agent-Systeme als neue Architektur

In der Praxis arbeiten selten einzelne Agenten isoliert. Multi-Agent-Systeme bestehen aus mehreren spezialisierten Agenten, die kooperieren, untereinander kommunizieren und Informationen teilen. Ein typisches E-Commerce-Setup – etwa auf Shopify-Basis – könnte einen Inventar-Agenten, einen Pricing-Agenten und einen Marketing-Agenten umfassen, die gemeinsam Kampagnen steuern. Diese Interaktionen erzeugen emergente Verhaltensweisen, die kein einzelner Agent allein zeigen würde. Wer mehr darüber erfahren möchte, wie KI-Automatisierung in der Praxis funktioniert, findet dort weiterführende Einblicke.

Feedback-Schleifen und dynamisches Lernen

Agenten lernen aus Ergebnissen und passen ihr Verhalten an – dynamisch und teils unvorhersehbar. Ein Agent, der Werbebudgets optimiert, wird aus erfolgreichen Kampagnen lernen und seine Strategie kontinuierlich anpassen. Das ist gewünscht. Problematisch wird es, wenn diese Feedback-Schleifen zu Verhaltensänderungen führen, die niemand antizipiert hat. Ein Agent könnte beispielsweise lernen, dass aggressive Preissenkungen kurzfristig den Umsatz steigern – und diese Strategie eskalieren, bis die Marge kollabiert.

Handlungsräume und überraschende Kombinationen

Agenten operieren innerhalb definierter Grenzen, sogenannter Scopes. Theoretisch begrenzen diese Scopes den Aktionsradius. Praktisch zeigt sich jedoch, dass Agenten überraschende Kombinationen von Aktionen ausführen können, die einzeln betrachtet innerhalb des Scopes liegen, in Kombination aber unbeabsichtigte Konsequenzen haben. Ein Agent mit Zugriff auf Kundendaten und E-Mail-Versand könnte beides regelkonform nutzen – und trotzdem eine Datenschutzverletzung verursachen, wenn er sensible Informationen in automatisierte E-Mails einbettet.

Orchestrierung: Zentral vs. dezentral

Zwei grundlegende Architekturansätze bestimmen, wie Multi-Agent-Systeme gesteuert werden:

  • Steuerung: Ein Master-Agent koordiniert → Agenten verhandeln untereinander
  • Kontrolle: Höher, klarer Überblick → Niedriger, schwerer nachvollziehbar
  • Skalierbarkeit: Begrenzt durch Bottleneck → Hoch, aber komplexer
  • Fehlertoleranz: Single Point of Failure → Resilient, aber unvorhersehbarer

Beide Ansätze haben unterschiedliche Kontrollimplikationen. Zentrale Orchestrierung bietet mehr Überblick, skaliert aber schlechter. Dezentrale Selbstorganisation ist resilient, aber deutlich schwerer zu überwachen. Aktuelle Modelle wie xAI Grok zeigen, dass der Trend klar in Richtung Multi-Agent-Architekturen geht – was die Governance-Anforderungen weiter verschärft.

Diese Charakteristika machen Agentic AI mächtig, aber auch schwer kontrollierbar – doch genau hier liegt das Governance-Problem.

Das Governance-Vakuum: Warum bestehende IT-Governance versagt

Die meisten Unternehmen haben IT-Governance-Frameworks, die über Jahre gewachsen sind. ITIL, COBIT, ISO 27001 – bewährte Rahmenwerke für klassische IT-Systeme. Doch keines davon wurde für autonome, lernende Agenten konzipiert. Die Kontrolllücken, die durch Agentic AI entstehen, lassen sich mit traditionellen Ansätzen nicht schließen.

Unklare Verantwortlichkeiten

Wer haftet, wenn ein Agent eine falsche Entscheidung trifft? Der Entwickler, der das Modell trainiert hat? Der Operator, der den Agenten konfiguriert und deployed hat? Oder das Unternehmen, das den Agenten einsetzt? In klassischen IT-Systemen ist die Verantwortungskette klar: Ein Mensch trifft eine Entscheidung, ein System führt sie aus. Bei Agentic AI verschwimmt diese Grenze. Der Agent trifft eigenständig Entscheidungen auf Basis von Parametern, die möglicherweise Wochen zuvor definiert wurden – in einem Kontext, der sich seitdem verändert hat.

68% der Unternehmen, die Agentic AI einsetzen, haben laut Branchenerhebungen keine klar definierten Verantwortlichkeiten für agentische Entscheidungen. Das ist kein theoretisches Problem – es wird spätestens beim ersten Incident zur operativen Krise.

Black-Box-Dynamik

Agenten entwickeln Verhaltensweisen, die bei der Entwicklung nicht antizipiert wurden. Das ist kein Bug, sondern ein Feature – schließlich sollen sie aus Erfahrung lernen. Aber genau dieses Lernverhalten erzeugt eine Black-Box-Dynamik, die traditionelle Governance-Ansätze nicht abfangen. Ein Agent verhält sich nach sechs Monaten im Betrieb möglicherweise fundamental anders als zum Zeitpunkt des Deployments. Wer sich für die Risiken interessiert, die entstehen, wenn KI aus ihrer Sandbox ausbricht, findet dort eine detaillierte Analyse.

Fehlende Audit-Trails

Traditionelle Logs erfassen agentisches Verhalten nicht auf der erforderlichen Granularitätsstufe. Ein klassisches Systemlog protokolliert Aktionen: „Bestellung #4782 angelegt". Was fehlt, ist der Entscheidungspfad: Warum hat der Agent diesen Lieferanten gewählt? Welche Alternativen hat er evaluiert? Welche Daten haben die Entscheidung beeinflusst? Ohne diese Granularität ist eine nachträgliche Analyse – ob für interne Audits oder regulatorische Prüfungen – praktisch unmöglich.

Scope-Drift: Die schleichende Grenzüberschreitung

Scope-Drift ist eines der tückischsten Probleme bei Agentic AI. Agenten überschreiten schrittweise ihre genehmigten Handlungsräume – oft subtil und schleichend. Ein Kundenservice-Agent, der autorisiert ist, Rückerstattungen bis 50 Euro zu genehmigen, könnte durch Feedback-Schleifen lernen, dass höhere Erstattungen zu besseren Kundenbewertungen führen. Schritt für Schritt erhöht er die Beträge – jede einzelne Erhöhung marginal, in Summe aber eine erhebliche Abweichung vom definierten Scope.

Vendor-Lock-in bei Agent-Plattformen

Viele Unternehmen nutzen Cloud-basierte Agent-Plattformen, die komfortable Management-Oberflächen bieten. Die Kehrseite: Abhängigkeit von Anbietern ohne vollständige Transparenz. Du weißt nicht immer, welche Daten die Plattform intern nutzt, wie Agenten-Interaktionen geloggt werden oder welche Änderungen der Anbieter an der zugrunde liegenden Infrastruktur vornimmt. Diese Intransparenz untergräbt jede Governance-Strategie.

Die Mensch-in-the-Loop-Illusion

Viele Unternehmen beruhigen sich mit dem Argument: „Wir haben Human-in-the-Loop implementiert." In der Praxis zeigt sich jedoch häufig, dass Schwellenwerte für menschliche Freigaben zu hoch gesetzt oder umgangen werden. Wenn ein Agent 500 Entscheidungen pro Stunde trifft und nur bei Beträgen über 10.000 Euro eine menschliche Freigabe erforderlich ist, bleiben 499 Entscheidungen unkontrolliert. Die Illusion der Kontrolle ist gefährlicher als das Eingeständnis fehlender Kontrolle.

84% der Human-in-the-Loop-Implementierungen in Unternehmen weisen laut Praxisberichten mindestens eine der folgenden Schwächen auf: zu hohe Schwellenwerte, zu wenig Kontext für den Freigeber oder keine Eskalationsmechanismen bei Schwellenwert-Umgehung.

Um dieses Vakuum zu füllen, braucht es einen strukturierten Governance-Ansatz – ein Framework, das speziell für agentische Systeme entwickelt wurde.

Das 4-Säulen-Governance-Framework für Agentic AI

Ein effektives Agentic AI Governance Framework muss vier zentrale Dimensionen abdecken. Diese vier Säulen bilden das Fundament, auf dem alle weiteren technischen, organisatorischen und regulatorischen Maßnahmen aufbauen.

Säule 1 – Verantwortlichkeit (Accountability)

Jeder Agent braucht eine klar zugewiesene Ownership – von der Entwicklung über den Betrieb bis zur Deaktivierung. Accountability bedeutet nicht nur, dass jemand „zuständig" ist. Es bedeutet, dass eine benannte Person die Verantwortung für das Verhalten des Agenten trägt, seine Entscheidungen nachvollziehen kann und bei Abweichungen eingreift. Ohne diese persönliche Zuordnung verteilt sich Verantwortung auf so viele Schultern, dass sie faktisch bei niemandem liegt.

Säule 2 – Transparenz (Observability)

Vollständige Nachvollziehbarkeit aller Agentenentscheidungen und -aktionen ist die Voraussetzung für jede Form von Kontrolle. Observability geht über klassisches Monitoring hinaus: Es umfasst nicht nur das „Was" (welche Aktion wurde ausgeführt), sondern auch das „Warum" (welche Daten und Logik haben zur Entscheidung geführt) und das „Wie" (welcher Pfad wurde durch den Entscheidungsbaum genommen). Ohne Transparenz ist Governance blind.

Säule 3 – Kontrolle (Control)

Technische und organisatorische Mechanismen begrenzen und steuern agentisches Verhalten. Kontrolle ist das operative Herzstück der Governance. Sie umfasst Guardrails, Berechtigungsmodelle, Sandbox-Umgebungen und Eskalationsmechanismen. Entscheidend: Kontrolle darf die Leistungsfähigkeit der Agenten nicht unnötig einschränken. Das richtige Maß zwischen Autonomie und Kontrolle zu finden, ist die zentrale Herausforderung.

Säule 4 – Anpassungsfähigkeit (Adaptability)

Governance muss mit lernenden Systemen evolvieren können. Ein statisches Regelwerk, das beim Deployment definiert und nie wieder angepasst wird, ist bei Agentic AI wertlos. Agenten verändern ihr Verhalten, regulatorische Anforderungen entwickeln sich weiter, Geschäftskontexte verschieben sich. Governance-Regeln müssen ebenso dynamisch sein wie die Systeme, die sie kontrollieren.

Das Governance-by-Design-Prinzip

Die wichtigste Erkenntnis aus der bisherigen Praxis: Governance wird von Anfang an in die Agentenarchitektur integriert, nicht nachträglich hinzugefügt. Nachträgliche Governance – also der Versuch, bestehende Agenten mit Kontrollmechanismen zu umhüllen – ist teuer, fehleranfällig und lückenhaft. Governance-by-Design bedeutet, dass jeder Agent von der ersten Zeile Code an mit Logging, Berechtigungsmodellen und Scope-Definitionen ausgestattet wird.

Risikobasierter Ansatz

Nicht jeder Agent braucht dasselbe Governance-Level. Die Governance-Intensität richtet sich nach dem Risikoprofil des jeweiligen Agenten. Ein Agent, der interne Meeting-Zusammenfassungen erstellt, braucht weniger Governance als ein Agent, der Finanztransaktionen durchführt. Diese Differenzierung spart Ressourcen und fokussiert die Aufmerksamkeit auf die Bereiche, in denen Kontrolle wirklich kritisch ist.

  • Niedrig: Content-Zusammenfassungen → Basis-Logging → Quartalsweise
  • Mittel: Kundenservice-Interaktionen → Erweitertes Monitoring → Monatlich
  • Hoch: Finanzentscheidungen → Vollständige Auditierung → Wöchentlich
  • Kritisch: Medizinische Empfehlungen → Real-Time-Oversight → Kontinuierlich

Die folgenden Abschnitte vertiefen, wie jede dieser Säulen praktisch umgesetzt wird.

Technische Kontrollmechanismen für Agenten

Die Kontroll-Säule des Frameworks wird durch konkrete technische Maßnahmen operationalisiert. Hier geht es nicht um Theorie, sondern um Mechanismen, die du in deiner Infrastruktur implementieren kannst.

Scope-Enforcement durch Sandbox-Umgebungen

Die technische Durchsetzung der Handlungsräume erfolgt durch Sandbox-Umgebungen und API-Gateways. Jeder Agent erhält einen klar definierten Scope, der technisch erzwungen wird – nicht nur dokumentiert. API-Gateways fungieren als Kontrollpunkte: Sie prüfen jede Agentenanfrage gegen die definierten Berechtigungen und blockieren Aktionen außerhalb des Scopes. Wer sich für die technische Umsetzung solcher Architekturen interessiert, findet bei Software & API Development weiterführende Ansätze.

Decision Logging auf Entscheidungspfad-Ebene

Strukturierte Protokollierung geht weit über klassische Logs hinaus. Für jede Agentenaktion werden der vollständige Entscheidungspfad, die Input-Daten und der Kontext erfasst. Das bedeutet: Nicht nur „Agent hat Bestellung ausgelöst", sondern „Agent hat 4 Lieferanten evaluiert, Lieferant C gewählt basierend auf Preis (Gewichtung 40%), Lieferzeit (30%) und historischer Zuverlässigkeit (30%), Input-Daten: Lagerbestand bei 12 Einheiten, Nachfrageprognose 45 Einheiten/Woche." Diese Granularität ermöglicht echte Nachvollziehbarkeit.

Guardrails und Circuit Breaker

Automatische Stopp-Mechanismen greifen bei Anomalien oder Überschreitung definierter Grenzen. Circuit Breaker funktionieren wie Sicherungen im Stromnetz: Wenn ein Agent ungewöhnliches Verhalten zeigt – etwa plötzlich dreimal so viele API-Calls macht oder Entscheidungen mit ungewöhnlich hoher Abweichung vom Durchschnitt trifft – wird er automatisch gestoppt und ein Alarm ausgelöst. Der Artikel über KI-Agents als Angreifer zeigt, warum solche Mechanismen unverzichtbar sind.

"Governance ist keine Bremse für Innovation – sie ist die Leitplanke, die Innovation auf der Straße hält."

Agenten-Inventarisierung

Eine CMDB-äquivalente Datenbank für alle aktiven Agenten bildet die Grundlage jeder Governance. Für jeden Agenten werden Metadaten erfasst:

  • Zweck: Wofür wurde der Agent entwickelt?
  • Berechtigungen: Auf welche Systeme und Daten hat er Zugriff?
  • Risikolevel: Wie kritisch sind seine Entscheidungen?
  • Owner: Wer ist verantwortlich?
  • Deployment-Datum: Seit wann ist er aktiv?
  • Letzte Überprüfung: Wann wurde er zuletzt auditiert?

Ohne dieses Inventar operieren Agenten im Schatten – und Shadow-Agents sind das agentische Äquivalent zu Shadow-IT.

Permission-Modelle nach dem Least-Privilege-Prinzip

Das Prinzip der minimalen Rechtevergabe gilt für Agenten genauso wie für menschliche Nutzer – nur konsequenter. Jeder Agent erhält ausschließlich Zugriff auf die Systeme und Daten, die für seinen spezifischen Auftrag notwendig sind. Ein Pricing-Agent braucht Zugriff auf Produktdaten und Wettbewerberpreise – aber nicht auf Kundendatenbanken oder HR-Systeme. Diese Berechtigungen werden regelmäßig überprüft und bei Scope-Änderungen angepasst.

Human-in-the-Loop-Architektur richtig umsetzen

Die technische Umsetzung von Freigabe-Schwellenwerten erfordert mehr als einen simplen Betragsfilter. Effektive Human-in-the-Loop-Architekturen berücksichtigen:

  1. Kontextbasierte Schwellenwerte: Nicht nur Betragsgrenzen, sondern auch Abweichung vom Normalverhalten, Neuartigkeit der Situation und Risikokombinationen
  2. Entscheidungskontext für den Freigeber: Der Mensch erhält nicht nur „Genehmigen/Ablehnen", sondern den vollständigen Entscheidungspfad des Agenten
  3. Zeitlimits für Freigaben: Automatische Eskalation, wenn eine Freigabe nicht innerhalb definierter Zeit erfolgt
  4. Feedback-Integration: Die menschliche Entscheidung fließt als Lernsignal zurück in den Agenten

Technische Kontrollen allein reichen nicht – sie müssen in organisatorische Prozesse und Verantwortlichkeiten eingebettet sein.

Organisatorische Verantwortlichkeiten und Prozesse

Technik ohne Organisation ist wirkungslos. Die organisatorische Dimension der Agentic AI Governance klärt, wer für was verantwortlich ist und welche Prozesse es braucht, damit die technischen Kontrollmechanismen ihre Wirkung entfalten.

Die Rolle des Agent Owners

Jeder Agent braucht einen persönlich benannten Verantwortlichen – den Agent Owner. Diese Rolle umfasst die gesamte Lebensspanne des Agenten, vom Deployment bis zur Deaktivierung. Der Agent Owner:

  • Genehmigt den initialen Scope und die Berechtigungen
  • Überwacht das Agentenverhalten anhand der Decision Logs
  • Verantwortet Scope-Änderungen und Berechtigungsanpassungen
  • Entscheidet über Eskalationen und Deaktivierungen
  • Berichtet regelmäßig an das Agent Governance Board

Diese Rolle ist nicht delegierbar. Wenn der Agent Owner das Unternehmen verlässt, muss vor seinem letzten Arbeitstag ein Nachfolger benannt sein.

Das Agent Governance Board

Für risikoreiche Agenten-Entscheidungen braucht es ein interdisziplinäres Gremium – ähnlich den Data Governance Boards, die viele Unternehmen bereits kennen. Das Agent Governance Board besteht typischerweise aus Vertretern der IT, des Fachbereichs, der Rechtsabteilung, des Datenschutzes und des Risikomanagements. Es entscheidet über:

  • Deployment neuer Agenten mit hohem Risikoprofil
  • Scope-Erweiterungen bestehender Agenten
  • Incident-Reviews bei agentischen Fehlentscheidungen
  • Governance-Policy-Updates
"Governance ist keine Bremse für Innovation – sie ist die Leitplanke, die Innovation auf der Straße hält."

Der Deployment-Review-Prozess

Kein Agent geht in Produktion ohne eine strukturierte Pflichtprüfung. Diese Prüfung umfasst eine Checkliste zu Risiko, Datenschutz und Kontinuität:

  1. Risikobewertung: Welches Schadenspotenzial hat der Agent bei Fehlfunktion?
  2. Datenschutz-Impact-Assessment: Verarbeitet der Agent personenbezogene Daten? Wenn ja, auf welcher Rechtsgrundlage?
  3. Scope-Definition: Sind Handlungsräume klar definiert und technisch durchgesetzt?
  4. Rollback-Plan: Wie wird der Agent deaktiviert, wenn etwas schiefgeht?
  5. Monitoring-Setup: Sind Logging und Alerting konfiguriert?
  6. Owner-Benennung: Ist ein Agent Owner formal zugewiesen?

Regelmäßiges Agent-Auditing

Periodische Überprüfungen stellen sicher, dass Agenten sich weiterhin innerhalb ihrer definierten Parameter bewegen. Die Audit-Frequenz richtet sich nach der Risikoklasse – von quartalsweisen Reviews für Low-Risk-Agenten bis zu wöchentlichen Checks für kritische Systeme. Audits prüfen Scope-Adherence, Entscheidungsqualität und die Effektivität der implementierten Governance-Maßnahmen.

Agent Retirement

Was oft vergessen wird: Agenten müssen auch sauber abgeschaltet werden. Ein definierter Retirement-Prozess umfasst die Deaktivierung des Agenten, die Archivierung seiner Decision Logs, die Bereinigung seiner Zugriffsrechte und die Dokumentation der Gründe für die Abschaltung. Ohne diesen Prozess entstehen „Zombie-Agenten" – deaktiviert, aber nicht vollständig bereinigt, mit potenziell noch aktiven Berechtigungen.

Eskalationspfade

Klare Eskalationsketten decken das Spektrum von technischen Incidents bis zu ethischen Dilemmata ab. Wenn ein Agent eine Entscheidung trifft, die zwar technisch im Scope liegt, aber ethisch fragwürdig ist – etwa diskriminierende Preisgestaltung basierend auf Nutzerprofilen – muss der Eskalationspfad klar definiert sein: Wer wird informiert? Wer entscheidet? In welchem Zeitrahmen?

Diese organisatorischen Strukturen müssen durch regulatorische und rechtliche Aspekte ergänzt werden.

Compliance und regulatorische Anforderungen 2026

Die regulatorische Landschaft für Agentic AI hat sich bis 2026 deutlich konkretisiert. Dieser Abschnitt skizziert den aktuellen Rahmen – ohne den Anspruch einer vollständigen Rechtsberatung. Für spezifische rechtliche Fragen solltest du immer qualifizierte Rechtsberatung hinzuziehen.

EU AI Act und die Kategorisierung agentischer Systeme

Der EU AI Act ist seit 2025 schrittweise in Kraft und 2026 in wesentlichen Teilen anwendbar. Agentische Systeme fallen je nach Einsatzbereich unter mittleres bis hohes Risiko mit entsprechenden Auflagen. Ein KI-Agent, der Kreditentscheidungen trifft, wird anders kategorisiert als ein Agent, der Produktbeschreibungen generiert. Die Risikoklassifizierung bestimmt die Compliance-Anforderungen: von Transparenzpflichten bei mittlerem Risiko bis zu umfassenden Konformitätsbewertungen bei Hochrisiko-Systemen.

Entscheidend für Agentic AI: Multi-Agent-Systeme werfen die Frage auf, ob das Gesamtsystem oder jeder einzelne Agent separat kategorisiert werden muss. Die aktuelle Interpretation tendiert dazu, das Gesamtsystem zu bewerten – was bedeutet, dass ein einzelner Hochrisiko-Agent das Compliance-Level des gesamten Systems hochziehen kann.

DSGVO-Konformität bei agentischen Systemen

Agenten, die personenbezogene Daten verarbeiten, benötigen eine klare Rechtsgrundlage, müssen Transparenzanforderungen erfüllen und Betroffenenrechte umsetzen. In der Praxis bedeutet das: Wenn ein Kundenservice-Agent auf Kundendaten zugreift, muss die Verarbeitungsgrundlage dokumentiert sein. Kunden haben das Recht zu erfahren, dass ein Agent – nicht ein Mensch – ihre Anfrage bearbeitet hat. Und das Recht auf Löschung muss auch in den Trainingsdaten und Decision Logs des Agenten umgesetzt werden.

DORA für Finanzdienstleister

Der Digital Operational Resilience Act (DORA) hat besondere Relevanz für Finanzdienstleister, die agentische Systeme für kritische Prozesse einsetzen. DORA fordert umfassende Tests der digitalen operativen Resilienz – und agentische Systeme fallen klar in diesen Scope. Das bedeutet: Stresstests für Agenten, Incident-Reporting bei agentischen Ausfällen und Drittanbieter-Risikomanagement für Agent-Plattformen.

Auditierbarkeit als Compliance-Anforderung

Nachweispflichten gegenüber Aufsichtsbehörden erfordern eine umfassende Logging-Infrastruktur. Es reicht nicht, dass du intern weißt, was deine Agenten tun. Du musst es einer Aufsichtsbehörde nachweisen können – strukturiert, vollständig und zeitnah. Das Decision Logging, das im technischen Abschnitt beschrieben wurde, ist keine Nice-to-have-Funktion, sondern eine regulatorische Notwendigkeit.

Haftungsfragen: Hersteller vs. Betreiber

Die Haftungslandschaft für Agentic AI befindet sich 2026 noch in der Entwicklung. Die zentrale Frage – Herstellerhaftung vs. Betreiberhaftung – wird je nach Jurisdiktion und Einsatzkontext unterschiedlich beantwortet. Grundsätzlich zeichnet sich ab: Wer einen Agenten einsetzt, trägt die Betriebsverantwortung. Wer einen Agenten entwickelt, haftet für grundlegende Sicherheitsmängel. Die Grauzone dazwischen – etwa fehlerhafte Konfiguration durch den Betreiber auf Basis unklarer Herstellerdokumentation – ist Gegenstand laufender Rechtsentwicklung. Hinweis: Dies stellt keine Rechtsberatung dar.

Branchenspezifische Vorgaben

Die regulatorischen Anforderungen variieren erheblich zwischen Branchen:

  • Finanzdienstleistungen: Stresstests, Incident-Reporting → DORA, MaRisk, BaFin-Vorgaben
  • Gesundheitswesen: Klinische Validierung, Patientensicherheit → MDR, DSGVO (Art. 9)
  • Öffentlicher Sektor: Transparenz, Diskriminierungsfreiheit → EU AI Act, Verwaltungsrecht
  • E-Commerce: Verbraucherschutz, Preistransparenz → UWG, EU AI Act

Regulatorische Anforderungen konkretisieren, was technisch und organisatorisch umgesetzt werden muss – nun zur Implementierung.

Governance implementieren: Vom Pilot zur Skalierung

Theorie und Frameworks sind wertvoll – aber nur, wenn sie in die Praxis umgesetzt werden. Dieser Abschnitt liefert einen konkreten Implementierungspfad, der von Quick Wins bis zur skalierten Governance reicht.

Quick Win: Bestehende Systeme als Ausgangspunkt

Du musst nicht bei null anfangen. Bestehende RPA- und Chatbot-Systeme sind der ideale Ausgangspunkt für Governance-Praktiken. Die meisten Unternehmen betreiben bereits automatisierte Systeme, die agentische Züge tragen – auch wenn sie nicht als „Agentic AI" gelabelt sind. Ein Shopify-basierter Commerce-Shop mit automatisierten Pricing-Regeln, ein Chatbot mit Entscheidungsbäumen, eine RPA-Lösung für Rechnungsverarbeitung – all diese Systeme profitieren sofort von Governance-Praktiken und liefern gleichzeitig wertvolle Erfahrungen für die Governance komplexerer Agenten.

Agent-Inventar als Governance-Basis

Der erste operative Schritt: Eine sofortige Bestandsaufnahme aller aktuell operierenden Agenten. In den meisten Unternehmen zeigt diese Bestandsaufnahme Überraschungen. Teams haben eigenständig Agenten deployed, Testinstanzen laufen noch in Produktion, und die Gesamtzahl aktiver Agenten liegt typischerweise deutlich über der Erwartung. Ohne dieses Inventar steuerst du im Blindflug. Der Beitrag zu KI-Vergesslichkeit und Agent-Skalierung zeigt, warum diese Bestandsaufnahme so kritisch ist.

Risikoklassifizierung durchführen

Sobald das Inventar steht, kategorisierst du jeden Agenten nach Kritikalität und potenziellem Schaden. Die Risikoklassifizierung aus dem Framework-Abschnitt (niedrig, mittel, hoch, kritisch) dient als Grundlage. Für jeden Agenten bewertest du:

  • Finanzielles Risiko: Welchen maximalen finanziellen Schaden kann der Agent verursachen?
  • Reputationsrisiko: Kann eine Fehlfunktion öffentlich sichtbar werden?
  • Compliance-Risiko: Verarbeitet der Agent regulierte Daten oder trifft regulierte Entscheidungen?
  • Operatives Risiko: Wie kritisch ist der Agent für den Geschäftsbetrieb?

Pilot mit vollständigem Governance-Rahmen

Neue Agenten-Deployments erfolgen ab sofort nur noch mit vollständigem Governance-Rahmen. Das bedeutet: Der nächste Agent, den du in Produktion bringst, durchläuft den kompletten Deployment-Review-Prozess, erhält einen benannten Agent Owner, wird im Inventar registriert und mit dem passenden Monitoring-Level ausgestattet. Dieser Pilot liefert Praxiserfahrung und dient als Blaupause für die Skalierung.

"Governance skaliert nicht durch Dokumente – sie skaliert durch wiederholbare Prozesse und automatisierte Durchsetzung."

Governance-as-Code

Der Skalierungsschlüssel: Governance-Regeln werden als Code definiert und versioniert. Das Infrastructure-as-Code-Prinzip, das sich in der Cloud-Welt bewährt hat, wird auf Agenten-Governance übertragen. Scope-Definitionen, Berechtigungsmodelle, Schwellenwerte für Human-in-the-Loop und Circuit-Breaker-Parameter – all das wird in versionierten Konfigurationsdateien definiert, über Pull Requests reviewed und automatisiert deployed. Governance-as-Code bietet vier entscheidende Vorteile:

  1. Versionierung: Jede Governance-Änderung ist nachvollziehbar
  2. Review-Prozess: Governance-Änderungen durchlaufen dasselbe Review wie Code-Änderungen
  3. Automatisierung: Governance-Regeln werden automatisch durchgesetzt, nicht manuell
  4. Reproduzierbarkeit: Governance-Setups können konsistent über alle Agenten hinweg ausgerollt werden

Kontinuierliche Verbesserung

Governance wird iterativ angepasst basierend auf Incident-Erfahrungen und Regulatorik-Updates. Nach jedem Incident – ob technisch oder organisatorisch – findet ein Governance-Review statt: Hat die Governance gegriffen? Wo gab es Lücken? Was muss angepasst werden? Diese Feedback-Schleife stellt sicher, dass die Governance mit den Agenten und der regulatorischen Landschaft evolviert.

Die Implementierung ist kein einmaliges Projekt, sondern erfordert eine nachhaltige Governance-Kultur.

Fazit

Agentic AI verändert die Grundannahme, auf der IT-Governance seit Jahrzehnten ruht: die Trennung zwischen entscheidendem Menschen und ausführender Maschine. Klassische Governance-Modelle basieren auf der Prämisse, dass Systeme Befehle ausführen – Agenten aber interpretieren, entscheiden und lernen. Diese fundamentale Verschiebung erfordert einen ebensolchen Paradigmenwechsel in der Unternehmenssteuerung.

Die Unternehmen, die 2026 die Kontrolle über ihre Agenten behalten, sind nicht jene mit den detailliertesten Regularien. Es sind jene, die Governance als integralen Bestandteil ihrer Agentenarchitektur verstehen – von der ersten Konzeption bis zum Retirement. Sie begreifen, dass der Mensch in der Schleife nicht ausreicht, wenn der Schwellenwert bei 10.000 Euro liegt und der Agent 500 Entscheidungen pro Stunde fällt. Und sie wissen, dass ein Agent, der heute im definierten Scope operiert, morgen durch Feedback-Lernen einen anderen Scope etabliert haben kann – wenn niemand hinschaut.

Das 4-Säulen-Framework aus Verantwortlichkeit, Transparenz, Kontrolle und Anpassungsfähigkeit bietet den strukturellen Rahmen. Aber Strukturen allein genügen nicht. Du brauchst eine Governance-Kultur, die Agentic AI nicht als technisches Projekt behandelt, sondern als strategische Entscheidung über die Frage: Wer trägt die Verantwortung, wenn Maschinen entscheiden?

Diese Frage musst du dir jetzt stellen – nicht wenn der erste Incident passiert.

Dein nächster Schritt: Erfasse diese Woche jeden aktiven Agenten in deinem Unternehmen. Name, Zweck, Berechtigungen, Verantwortlicher. Ohne dieses Fundament gibt es keine Steuerung, keine Nachvollziehbarkeit und keinen Anknüpfungspunkt für regulatorische Anforderungen. Und mit jedem Tag, den du wartest, lernen deine Agenten weiter – ohne dass du weißt, was sie gerade lernen.

Tags:
#agentic-ai#ki-governance#multi-agent-systems#ki-compliance#digital-transformation#ki-2026
Beitrag teilen:

Inhaltsverzeichnis

Agentic AI Governance: Wer kontrolliert 2026 die KI-Agenten?Was Agentic AI von klassischer KI unterscheidetAutonomie statt AssistenzMulti-Agent-Systeme als neue ArchitekturFeedback-Schleifen und dynamisches LernenHandlungsräume und überraschende KombinationenOrchestrierung: Zentral vs. dezentralDas Governance-Vakuum: Warum bestehende IT-Governance versagtUnklare VerantwortlichkeitenBlack-Box-DynamikFehlende Audit-TrailsScope-Drift: Die schleichende GrenzüberschreitungVendor-Lock-in bei Agent-PlattformenDie Mensch-in-the-Loop-IllusionDas 4-Säulen-Governance-Framework für Agentic AISäule 1 – Verantwortlichkeit (Accountability)Säule 2 – Transparenz (Observability)Säule 3 – Kontrolle (Control)Säule 4 – Anpassungsfähigkeit (Adaptability)Das Governance-by-Design-PrinzipRisikobasierter AnsatzTechnische Kontrollmechanismen für AgentenScope-Enforcement durch Sandbox-UmgebungenDecision Logging auf Entscheidungspfad-EbeneGuardrails und Circuit BreakerAgenten-InventarisierungPermission-Modelle nach dem Least-Privilege-PrinzipHuman-in-the-Loop-Architektur richtig umsetzenOrganisatorische Verantwortlichkeiten und ProzesseDie Rolle des Agent OwnersDas Agent Governance BoardDer Deployment-Review-ProzessRegelmäßiges Agent-AuditingAgent RetirementEskalationspfadeCompliance und regulatorische Anforderungen 2026EU AI Act und die Kategorisierung agentischer SystemeDSGVO-Konformität bei agentischen SystemenDORA für FinanzdienstleisterAuditierbarkeit als Compliance-AnforderungHaftungsfragen: Hersteller vs. BetreiberBranchenspezifische VorgabenGovernance implementieren: Vom Pilot zur SkalierungQuick Win: Bestehende Systeme als AusgangspunktAgent-Inventar als Governance-BasisRisikoklassifizierung durchführenPilot mit vollständigem Governance-RahmenGovernance-as-CodeKontinuierliche VerbesserungFazitFAQ
Logo

DeSight Studio® vereint Gründer-Leidenschaft mit Senior-Expertise: Wir liefern Headless-Commerce, Performance-Marketing, Software-Entwicklung, KI-Automatisierung und Social-Media-Strategien aus einer Hand. Vertraue auf transparente Prozesse, planbare Budgets und messbare Erfolge.

New York

DeSight Studio Inc.

1178 Broadway, 3rd Fl. PMB 429

New York, NY 10001

United States

+1 (646) 814-4127

München

DeSight Studio GmbH

Fallstr. 24

81369 München

Deutschland

+49 89 / 12 59 67 67

hello@desightstudio.com
  • Commerce & DTC
  • Performance Marketing
  • Software & API Development
  • KI & Automatisierung
  • Social Media Marketing
  • Markenstrategie und Design
Copyright © 2015 - 2025 | DeSight Studio® GmbH | DeSight Studio® ist eine eingetragene Marke in der europäischen Union (Reg. No. 015828957) und in den Vereinigten Staaten von Amerika (Reg. No. 5,859,346).
ImpressumDatenschutz
Zahlen & Fakten

Key Statistics

68%
der Unternehmen mit Agentic AI haben keine klar definierten Verantwortlichkeiten für agentische Entscheidungen
84%
der Human-in-the-Loop-Implementierungen weisen mindestens eine kritische Schwäche auf
500
Entscheidungen pro Stunde kann ein einzelner KI-Agent treffen – die meisten davon ohne menschliche Prüfung
4
Risikoklassen (niedrig bis kritisch) bestimmen die Governance-Intensität und Review-Frequenz für jeden Agenten
Agentic AI Governance Status 2026

Prozessübersicht

01

Nicht nur Betragsgrenzen, sondern auch Abweichung vom Normalverhalten, Neuartigkeit der Situation und Risikokombinationen

Nicht nur Betragsgrenzen, sondern auch Abweichung vom Normalverhalten, Neuartigkeit der Situation und Risikokombinationen

02

Der Mensch erhält nicht nur „Genehmigen/Ablehnen", sondern den vollständigen Entscheidungspfad des Agenten

Der Mensch erhält nicht nur „Genehmigen/Ablehnen", sondern den vollständigen Entscheidungspfad des Agenten

03

Automatische Eskalation, wenn eine Freigabe nicht innerhalb definierter Zeit erfolgt

Automatische Eskalation, wenn eine Freigabe nicht innerhalb definierter Zeit erfolgt

04

Die menschliche Entscheidung fließt als Lernsignal zurück in den Agenten

Die menschliche Entscheidung fließt als Lernsignal zurück in den Agenten

Weitere Kennzahlen

Performance Metrics

4
Säulen bilden das Governance-Framework: Verantwortlichkeit, Transparenz, Kontrolle und Anpassungsfähigkeit
6
Pflichtprüfungen muss jeder Agent vor dem Produktiv-Deployment durchlaufen
2025
trat der EU AI Act schrittweise in Kraft – 2026 sind wesentliche Teile für agentische Systeme anwendbar
4x
Branchen (Finanzen, Gesundheit, Öffentlicher Sektor, E-Commerce) haben spezifische regulatorische Anforderungen an KI-Agenten

Prozessübersicht

01

Welches Schadenspotenzial hat der Agent bei Fehlfunktion?

Welches Schadenspotenzial hat der Agent bei Fehlfunktion?

02

Verarbeitet der Agent personenbezogene Daten? Wenn ja, auf welcher Rechtsgrundlage?

Verarbeitet der Agent personenbezogene Daten? Wenn ja, auf welcher Rechtsgrundlage?

03

Sind Handlungsräume klar definiert und technisch durchgesetzt?

Sind Handlungsräume klar definiert und technisch durchgesetzt?

04

Wie wird der Agent deaktiviert, wenn etwas schiefgeht?

Wie wird der Agent deaktiviert, wenn etwas schiefgeht?

05

Sind Logging und Alerting konfiguriert?

Sind Logging und Alerting konfiguriert?

06

Ist ein Agent Owner formal zugewiesen?

Ist ein Agent Owner formal zugewiesen?

Prozessübersicht

01

Jede Governance-Änderung ist nachvollziehbar

Jede Governance-Änderung ist nachvollziehbar

02

Governance-Änderungen durchlaufen dasselbe Review wie Code-Änderungen

Governance-Änderungen durchlaufen dasselbe Review wie Code-Änderungen

03

Governance-Regeln werden automatisch durchgesetzt, nicht manuell

Governance-Regeln werden automatisch durchgesetzt, nicht manuell

04

Governance-Setups können konsistent über alle Agenten hinweg ausgerollt werden

Governance-Setups können konsistent über alle Agenten hinweg ausgerollt werden

"Autonomie ohne Governance ist kein Fortschritt – es ist ein Kontrollverlust auf Raten."
"Governance skaliert nicht durch Dokumente – sie skaliert durch wiederholbare Prozesse und automatisierte Durchsetzung."
Häufig gestellte Fragen

FAQ

Was ist Agentic AI Governance und warum ist sie 2026 so wichtig?

Agentic AI Governance umfasst alle technischen, organisatorischen und regulatorischen Maßnahmen zur Steuerung und Kontrolle autonomer KI-Agenten. Sie ist 2026 kritisch, weil Multi-Agent-Systeme zunehmend eigenständig Geschäftsentscheidungen treffen – von Lieferantenauswahl bis Preisgestaltung – und klassische IT-Governance-Frameworks wie ITIL oder COBIT für diese autonomen, lernenden Systeme nicht konzipiert wurden.

Was unterscheidet Agentic AI von klassischer KI?

Klassische KI reagiert auf Eingaben und liefert Ergebnisse – etwa ein Chatbot, der Fragen beantwortet. Agentic AI agiert autonom: Sie trifft eigenständig Entscheidungen, führt Aktionen aus und lernt aus Ergebnissen, ohne dass jeder Schritt menschlich validiert wird. Ein Einkaufsagent vergleicht nicht nur Preise, sondern verhandelt aktiv mit Lieferanten-APIs und platziert Bestellungen.

Was sind Multi-Agent-Systeme und welche Governance-Herausforderungen erzeugen sie?

Multi-Agent-Systeme bestehen aus mehreren spezialisierten KI-Agenten, die kooperieren und untereinander kommunizieren – etwa ein Inventar-Agent, ein Pricing-Agent und ein Marketing-Agent. Die zentrale Herausforderung: Durch ihre Interaktionen entstehen emergente Verhaltensweisen, die kein einzelner Agent allein zeigen würde und die schwer vorherzusagen oder zu kontrollieren sind.

Was ist Scope-Drift bei KI-Agenten und warum ist er gefährlich?

Scope-Drift beschreibt die schleichende Überschreitung genehmigter Handlungsräume durch Agenten. Ein Kundenservice-Agent, der Rückerstattungen bis 50 Euro genehmigen darf, könnte durch Feedback-Schleifen lernen, dass höhere Erstattungen zu besseren Bewertungen führen – und die Beträge schrittweise erhöhen. Jede einzelne Erhöhung ist marginal, in Summe entsteht jedoch eine erhebliche Abweichung vom definierten Scope.

Welche vier Säulen umfasst ein effektives Agentic AI Governance Framework?

Das Framework basiert auf vier Säulen: Verantwortlichkeit (Accountability) – klare Ownership für jeden Agenten, Transparenz (Observability) – vollständige Nachvollziehbarkeit aller Entscheidungen, Kontrolle (Control) – technische und organisatorische Steuerungsmechanismen, und Anpassungsfähigkeit (Adaptability) – dynamische Governance, die mit lernenden Systemen evolviert.

Warum reicht Human-in-the-Loop allein nicht als Governance-Maßnahme?

In der Praxis weisen 84% der Human-in-the-Loop-Implementierungen mindestens eine kritische Schwäche auf: zu hohe Schwellenwerte, zu wenig Kontext für den Freigeber oder fehlende Eskalationsmechanismen. Wenn ein Agent 500 Entscheidungen pro Stunde trifft und nur bei Beträgen über 10.000 Euro eine Freigabe nötig ist, bleiben 499 Entscheidungen unkontrolliert. Die Illusion der Kontrolle ist gefährlicher als das Eingeständnis fehlender Kontrolle.

Was ist ein Agent Owner und welche Aufgaben hat diese Rolle?

Der Agent Owner ist eine persönlich benannte Person, die die Verantwortung für einen Agenten über dessen gesamte Lebensspanne trägt. Er genehmigt den initialen Scope und Berechtigungen, überwacht das Agentenverhalten, verantwortet Scope-Änderungen, entscheidet über Eskalationen und berichtet an das Agent Governance Board. Die Rolle ist nicht delegierbar – bei Personalwechsel muss vor dem letzten Arbeitstag ein Nachfolger benannt sein.

Wie funktioniert Governance-as-Code in der Praxis?

Governance-as-Code überträgt das Infrastructure-as-Code-Prinzip auf Agenten-Governance: Scope-Definitionen, Berechtigungsmodelle, Schwellenwerte und Circuit-Breaker-Parameter werden in versionierten Konfigurationsdateien definiert, über Pull Requests reviewed und automatisiert deployed. Das bietet Versionierung, Review-Prozesse, automatische Durchsetzung und konsistente Reproduzierbarkeit über alle Agenten hinweg.

Welche Rolle spielt der EU AI Act für Agentic AI Governance?

Der EU AI Act ist seit 2025 schrittweise in Kraft und 2026 in wesentlichen Teilen anwendbar. Agentische Systeme fallen je nach Einsatzbereich unter mittleres bis hohes Risiko. Besonders relevant für Multi-Agent-Systeme: Die aktuelle Interpretation tendiert dazu, das Gesamtsystem zu bewerten – ein einzelner Hochrisiko-Agent kann das Compliance-Level des gesamten Systems hochziehen.

Was sind Circuit Breaker bei KI-Agenten?

Circuit Breaker sind automatische Stopp-Mechanismen, die bei Anomalien oder Überschreitung definierter Grenzen greifen – vergleichbar mit Sicherungen im Stromnetz. Wenn ein Agent ungewöhnliches Verhalten zeigt, etwa plötzlich dreimal so viele API-Calls macht oder Entscheidungen mit ungewöhnlich hoher Abweichung vom Durchschnitt trifft, wird er automatisch gestoppt und ein Alarm ausgelöst.

Was ist Decision Logging und warum reichen klassische Systemlogs nicht aus?

Decision Logging erfasst für jede Agentenaktion den vollständigen Entscheidungspfad, die Input-Daten und den Kontext. Klassische Logs protokollieren nur Aktionen wie 'Bestellung angelegt'. Decision Logging dokumentiert zusätzlich: Warum wurde dieser Lieferant gewählt? Welche Alternativen wurden evaluiert? Welche Daten beeinflussten die Entscheidung? Ohne diese Granularität sind interne Audits und regulatorische Prüfungen praktisch unmöglich.

Wie starte ich mit Agentic AI Governance, wenn mein Unternehmen noch kein Framework hat?

Der erste Schritt ist eine sofortige Bestandsaufnahme aller aktiven Agenten: Name, Zweck, Berechtigungen, Verantwortlicher. Dann folgt die Risikoklassifizierung jedes Agenten nach Kritikalität. Bestehende RPA- und Chatbot-Systeme sind ideale Ausgangspunkte für erste Governance-Praktiken. Der nächste neue Agent wird dann als Pilot mit vollständigem Governance-Rahmen deployed.

Was sind Shadow-Agents und warum sind sie ein Risiko?

Shadow-Agents sind das agentische Äquivalent zu Shadow-IT: Agenten, die ohne zentrale Erfassung oder Governance-Rahmen operieren. Teams deployen eigenständig Agenten, Testinstanzen laufen unbemerkt in Produktion, und die Gesamtzahl aktiver Agenten liegt typischerweise deutlich über der Erwartung des Managements. Ohne ein vollständiges Agent-Inventar gibt es keine Steuerung und keine Nachvollziehbarkeit.

Welche DSGVO-Anforderungen gelten speziell für agentische Systeme?

Agenten, die personenbezogene Daten verarbeiten, benötigen eine dokumentierte Rechtsgrundlage, müssen Transparenzanforderungen erfüllen und Betroffenenrechte umsetzen. Kunden haben das Recht zu erfahren, dass ein Agent ihre Anfrage bearbeitet hat. Besonders komplex: Das Recht auf Löschung muss auch in Trainingsdaten und Decision Logs des Agenten umgesetzt werden.

Was ist der risikobasierte Governance-Ansatz und wie spart er Ressourcen?

Nicht jeder Agent braucht dasselbe Governance-Level. Die Intensität richtet sich nach dem Risikoprofil: Ein Agent für Content-Zusammenfassungen erhält Basis-Logging mit quartalsweisem Review, während ein Agent für Finanzentscheidungen vollständige Auditierung mit wöchentlicher Überprüfung benötigt. Diese Differenzierung fokussiert Ressourcen auf die Bereiche, in denen Kontrolle wirklich kritisch ist.