Zum Inhalt

Traditionell waren Datenpipelines so aufgebaut, dass Menschen an jeder Stelle eingebunden waren. Sie haben Ergebnisse interpretiert und entschieden, welche Maßnahmen daraus folgen. Mit dem Aufkommen von Agentic AI beginnt sich dieses Modell zu verändern. AI-Agenten sind in der Lage, Daten eigenständig zu interpretieren, Entscheidungen zu treffen und Aktionen innerhalb von Systemen auszuführen – ohne dass jede einzelne Handlung explizit freigegeben werden muss.

Klassische Data Governance konzentriert sich darauf, wer Zugriff auf Daten hat und wie diese strukturiert und genutzt werden. Agentic AI erweitert diese Fragestellung deutlich. Es geht nicht mehr nur um den Zugang zu Daten, sondern auch darum, das Verhalten von Systemen zu steuern, die auf Basis dieser Daten eigenständig handeln können. Gleichzeitig befinden sich Governance-Modelle für solche Systeme noch in der Entwicklung, weshalb ein durchdachtes Design und klare Kontrollmechanismen entscheidend sind.

Was „Agentic AI“ in der Praxis bedeutet

Im aktuellen AI- und Datenumfeld ist es hilfreich, Begriffe sauber voneinander abzugrenzen. Der Begriff „Künstliche Intelligenz“ wurde lange vor allem für Machine-Learning-Modelle verwendet, insbesondere für neuronale Netze zur Mustererkennung. Inzwischen umfasst er auch Sprachmodelle, sogenannte Large Language Models (LLMs), sowie darauf aufbauende Systeme wie Copilots und Agenten.

Copilots und Agenten basieren häufig auf derselben technologischen Grundlage, erfüllen jedoch unterschiedliche Aufgaben. Copilots unterstützen Nutzer, indem sie Vorschläge machen und Prozesse begleiten. Agenten gehen einen Schritt weiter: Sie können eigenständig handeln. Dazu gehört das Auslösen von Workflows, das Aktualisieren von Daten, das Initiieren von Transaktionen oder das Aufrufen von APIs – auch systemübergreifend und in Interaktion mit anderen Agenten.

Trotz dieser Autonomie sind Agenten weiterhin an Regeln gebunden. Sie besitzen eine eigene Identität im System und unterliegen Berechtigungen, ähnlich wie menschliche Nutzer. Der wesentliche Unterschied liegt darin, dass AI-Systeme nicht mehr nur Daten analysieren, sondern aktiv in Prozesse eingreifen.

 

Warum klassische Data Governance nicht mehr ausreicht

In vielen Projekten liegt der Fokus auf gut strukturierten Datenmodellen und sauberer Governance. Ziel ist es, sicherzustellen, dass sowohl Menschen als auch Systeme nur auf die Daten zugreifen, die sie tatsächlich benötigen. In Kombination mit durchdachtem Modell-Design sorgt das dafür, dass auch AI-Systeme valide und regelkonforme Abfragen durchführen.

Traditionelle Governance basiert in der Regel auf vier zentralen Säulen:

  • Datenqualität: Sind die Daten korrekt und zuverlässig?
  • Zugriffskontrolle: Wer darf auf welche Daten zugreifen?
  • Lineage: Wie sind die Daten entstanden und weiterverarbeitet worden?
  • Compliance: Entsprechen die Daten regulatorischen Anforderungen?

Solange Menschen die daraus resultierenden Entscheidungen treffen, ist das ausreichend. Sobald jedoch AI-Systeme eigenständig handeln, kommen weitere Aspekte hinzu:

  • Welche Aktionen darf ein Agent ausführen?
  • Welche Freigaben können entfallen?
  • Wie werden Aktionen protokolliert und überwacht?
  • Wer trägt die Verantwortung für Ergebnisse?

Diese Fragen sind nicht grundsätzlich neu – auch menschliches Handeln wird in Unternehmen reguliert. Der Unterschied liegt in der Geschwindigkeit und Skalierung. Ein einzelner Fehler kann sich durch automatisierte Abläufe schnell vervielfachen und über mehrere Systeme hinweg fortsetzen. Während Menschen solche Fehler häufig erkennen und korrigieren, fehlt diese Kontrolle bei unzureichend gesteuerten AI-Systemen.

 

Welche Fragen sich Führungskräfte jetzt stellen sollten

Unternehmen, die sich mit Agentic AI beschäftigen, sollten zunächst ihre bestehende Datenlandschaft bewerten. Entscheidend ist, ob Daten sauber strukturiert, qualitativ hochwertig und ausreichend abgesichert sind. Ohne diese Grundlage lässt sich ein sinnvoller Einsatz von AI-Agenten kaum realisieren.

Ist diese Basis vorhanden, geht es im nächsten Schritt um die konkrete Rolle des Agenten. Dabei gilt das Prinzip der minimalen Rechtevergabe: Ein Agent sollte nur auf die Daten und Funktionen zugreifen können, die für seine Aufgabe zwingend erforderlich sind.

Gleichzeitig bewegen sich AI-Agenten auf einem Spektrum unterschiedlicher Autonomiegrade:

  • rein unterstützend (Advisory)
  • mit verpflichtender menschlicher Freigabe
  • teilautonom unter definierten Bedingungen
  • vollständig autonom innerhalb gesetzter Grenzen
  • kooperierend mit anderen Agenten

Mit zunehmender Autonomie steigen sowohl die Möglichkeiten als auch die Risiken. Unabhängig vom gewählten Modell bleibt es entscheidend, dass Agenten innerhalb klar definierter Rahmenbedingungen operieren.

Risikominimierung und Kontrolle

Um Risiken zu begrenzen, sind transparente Kontrollmechanismen notwendig. Dazu gehören unter anderem Monitoring und Logging, klare Verantwortlichkeiten sowie technische Sicherheitsmechanismen, die im Ernstfall eingreifen können.

Diese Strukturen ermöglichen es Unternehmen, erste Anwendungsfälle kontrolliert zu testen und Erfahrungen zu sammeln, ohne die Stabilität bestehender Systeme zu gefährden.

Fazit

Agentic AI eröffnet neue Möglichkeiten für Automatisierung und Effizienz. Gleichzeitig steigen die Anforderungen an Governance erheblich. Unternehmen müssen ihre bestehenden Modelle weiterentwickeln, um nicht nur den Zugriff auf Daten, sondern auch das Verhalten von Systemen zu steuern.

Richtig umgesetzt schafft Governance die Grundlage dafür, Innovation voranzutreiben, ohne die Kontrolle zu verlieren.