Tim Lipphardt
Head of Consulting
Shadow AI im Unternehmen: Wenn KI-Nutzung zur Identity-Herausforderung wird
Shadow AI ist ein Identity Problem
Mitarbeiter nutzen KI-Tools massenhaft ohne IT-Freigabe. Die entscheidende Frage ist nicht welches Tool, sondern: Welcher Mitarbeiter teilt welche Daten mit KI-Tools?
Agenten machen es komplexer
Klassische IAM-Systeme wurden für menschliche Lebenszyklen gebaut: Monate, Jahre. KI-Agenten existieren teilweise nur Sekunden, verhalten sich anders und brauchen völlig andere Governance-Konzepte.
Ermöglichen statt verbieten
Verbote scheitern. Wer Shadow AI in den Griff bekommen will, braucht Sichtbarkeit, ein Governance-Framework und sichere Alternativen.
Die Kernbotschaft
Shadow AI: Deine Mitarbeiter nutzen längst KI ohne Freigabe
Du kennst das Bild: Auf den Bildschirmen im Büro laufen ChatGPT, Claude, Gemini. Mitarbeiter nutzen KI-Tools mit privaten Accounts, weil die offiziellen Alternativen fehlen oder zu umständlich sind. Das ist keine böse Absicht, sondern purer Pragmatismus.
In Deutschland nutzt ein Großteil der Mitarbeitenden KI-Tools ohne Freigabe. Das Muster erinnert an die Shadow IT vor zehn Jahren, als Dropbox und Trello massenhaft an der IT vorbei eingesetzt wurden. Damals hat man irgendwann verstanden, dass Verbote kontraproduktiv sind. Mit Shadow AI stehen wir am gleichen Punkt, nur dass der Einsatz höher ist.
Bei Shadow AI fließen Daten in Echtzeit aus dem Unternehmen ab. Jede Eingabe in ein öffentliches KI-Tool ist ein Datentransfer an einen Drittanbieter. Verbote würden hier vermutlich nichts bewirken. Die meisten würden die Tools weiter nutzen, nur eben mehr im Verborgenen, was das Problem nur weiter in den Untergrund drückt.
Was ist anders?
Kein Security-Problem, sondern ein Identity-Problem
Ein Vertriebsmitarbeiter lädt eine Kundenliste in ChatGPT hoch, um sie für eine Kampagne zu segmentieren. Ein Entwickler nutzt einen nicht genehmigten Coding-Assistenten mit Zugriff auf das interne Repository. Eine Führungskraft speist vertrauliche Strategiedokumente in ein KI-Tool ein. In allen drei Fällen landen sensible Daten auf Servern, über die du keinerlei Kontrolle hast.
Das Problem liegt tiefer als bei einem klassischen Datenabfluss: Es gibt keine Logs, keine Audit-Trails, keine Zuordnung zu einer verwalteten Identität. Klassische Sicherheitstools greifen zu kurz, weil ihnen der Kontext für KI-Datenströme fehlt. Du weißt weder wer was hochgeladen hat, noch kannst du es einer Identität in deinem IAM-System zuordnen.
Die zentrale Frage lautet deshalb nicht „Welches Tool wurde benutzt?”, sondern „Welche Identität hat mit welchen Berechtigungen auf welche Daten zugegriffen und wohin hat sie diese übertragen?” Ohne diese Verknüpfung zwischen Identität, Berechtigung und Datenfluss bleibst du blind.
EU AI Act, NIS2, DSGVO: Ohne Sichtbarkeit keine Compliance
DSGVO, NIS2, DORA und der EU AI Act fordern ein vollständiges Inventar genutzter KI-Anwendungen und eine klare Dokumentation der Datenflüsse. Der EU AI Act verlangt seit seinem schrittweisen Inkrafttreten seit August 2025 eine Risikoeinstufung aller eingesetzten KI-Systeme. Riskantere Anwendungen, etwa im Recruiting, unterliegen strengen Anforderungen an Transparenz und Dokumentation.
Wenn deine IT-Abteilung nicht weiß, welche KI-Tools überhaupt genutzt werden, kannst du weder Inventar noch Risikobewertung liefern. Das Unternehmen verstößt gegen Grundanforderungen, ohne es zu merken.
KI-Agenten: Die nächste Identitätsklasse, die niemand verwaltet
Bisher ging es um Menschen, die KI-Tools unkontrolliert nutzen. Aber das Identity-Problem hat eine zweite Dimension, die gerade erst sichtbar wird.
KI-Agenten automatisieren auf der einen Seite IAM-Prozesse wie Access Reviews, Provisioning oder Anomalieerkennung. Auf der anderen Seite sind sie eigenständige Akteure in deiner IT-Landschaft. Sie rufen APIs auf, verarbeiten Daten, treffen Entscheidungen und arbeiten mit anderen Agenten zusammen.
Klassische IAM-Systeme tun sich schwer mit Agenten. Ein Service Account führt einen vordefinierten Job aus und verhält sich immer gleich. Ein KI-Agent analysiert Situationen, trifft eigene Entscheidungen und handelt schnell. Er braucht kurzlebige, aufgabenbezogene Credentials, die nach Erledigung automatisch verfallen. Er braucht nachvollziehbare Delegationsketten, die zeigen, welcher Mensch ihn autorisiert hat. Und er braucht kontinuierliches Monitoring, weil sein Verhalten sich nicht vorhersagen lässt wie das einer klassischen Anwendung.
Die meisten Unternehmen behandeln Agenten heute entweder wie Service Accounts (zu wenig) oder ignorieren sie komplett (gefährlich). Hier schließt sich der Kreis: Wenn schon die menschliche KI-Nutzung unkontrolliert abläuft, wie steht es dann um dutzende autonome Agenten, die im Hintergrund auf Systeme zugreifen? Menschliche Shadow AI und unkontrollierte Agent Identities sind letztlich dasselbe Problem: fehlende Governance über Identitäten, die mit KI interagieren.
Unterstützung gefällig?
Du willst wissen, wie du Shadow AI vermeidest und KI Agenten sicher verwaltest? Schreib uns gerne ganz unverbindlich und lass dich beraten!
How to
Shadow AI in den Griff bekommen
Shadow AI Discovery: Wissen, was im Unternehmen passiert
Welche KI-Tools werden genutzt? Von wem? Welche Daten fließen ab? Diese Fragen haben sich die meisten Unternehmen noch nicht gestellt. In unseren Kundenprojekten starten wir deshalb oft mit einem Workshop zur KI-Governance-Readiness, um genau diese Fragen zu klären.
Technologisch hat SailPoint hier im März 2026 mit Shadow AI Remediation eine interessante Lösung vorgestellt. Das Tool erkennt in Echtzeit, welche KI-Tools Mitarbeiter nutzen, überwacht Datei-Uploads und greift steuernd ein: Es blockiert Uploads, leitet Nutzer auf genehmigte Unternehmens-KI um oder fordert eine Begründung für die Nutzung ein. Es lässt sich als Browser-Extension über Standard-Device-Management ausrollen, ohne Netzwerkänderungen.
Der entscheidende Punkt: Shadow AI Remediation arbeitet nicht isoliert, sondern ist direkt in die SailPoint Identity Security Cloud integriert. Die KI-Nutzungsdaten fließen in den Identity Graph und reichern ihn an. Du siehst also nicht nur, dass jemand ChatGPT nutzt, du kannst es mit dem gesamten Identitäts- und Berechtigungskontext verbinden und daraus Risikobewertungen ableiten. Genau dieser Ansatz unterscheidet die Lösung von reinen Browser- oder Endpoint-Tools, die Sichtbarkeit ohne Governance-Kontext liefern.
KI-Governance-Framework: Regeln, die mitwachsen
Sichtbarkeit allein reicht nicht. Du brauchst Regeln: Welche KI-Tools sind zugelassen? Wie werden Agenten registriert? Wer ist verantwortlich, wenn ein Agent auf Kundendaten zugreift?
Fang pragmatisch an. Drei Kategorien von KI-Tools (zugelassen, eingeschränkt, verboten), klare Grenzen für sensible Daten und definierte Verantwortlichkeiten für Agent Identities. Kein perfektes Framework vor dem Start, sondern ein lebendiges Dokument, das mit deinen Erfahrungen wächst. Wir helfen beim Aufbau eines Frameworks, das sowohl menschliche KI-Nutzung als auch Agent Identities abdeckt und zu deiner bestehenden IAM-Architektur passt.
Agent Identity Security: Neue Identitäten, neue Konzepte
Wer seine IAM-Architektur modernisiert, sollte Agent Identities direkt einplanen. Ein modularer Ansatz wie Identity Fabric schafft die Flexibilität, um neue Identitätsklassen kontrolliert einzufügen. SailPoint bietet mit Agent Identity Security als Zusatzpaket für die Identity Security Cloud die Möglichkeit, Agenten aus Plattformen wie Microsoft 365 Copilot, Amazon Bedrock, Salesforce Agentforce oder Google Vertex AI zentral als Identitäten zu verwalten: Lifecycle, Rechte, Ownership.
Ein Ansatz, den SailPoint empfiehlt und den wir bei Kunden begleiten: Bei der IGA-Einführung nicht mit den Human Identities starten, sondern zuerst die KI-Agenten anbinden. Das klingt kontraintuitiv, hat aber einen klaren Grund. Agenten sind gerade die am schnellsten wachsende und am wenigsten kontrollierte Angriffsfläche. Wer hier zuerst Ordnung schafft, adressiert das größte Risiko zuerst.
Shadow AI Remediation, Agent Identity Security, Machine Identity Security und Data Access Security bilden zusammen SailPoints Real-Time AI Governance and Security Framework. Der Vorteil: Menschliche KI-Nutzung und autonome Agenten werden nicht in Silos verwaltet, sondern über eine einheitliche Identity-Plattform gesteuert. Von Shadow AI Remediation als niedrigschwelligem Einstieg lässt sich schrittweise eine vollständige IGA-Lösung aufbauen.
Fazit
Jetzt schon für die Zukunft absichern
Shadow AI ist Realität in den meisten Unternehmen, und mit dem Aufkommen autonomer KI-Agenten wird das Problem nicht kleiner. Beides sind Ausprägungen derselben Herausforderung: fehlende Governance über Identitäten, die mit KI interagieren. Verbote funktionieren nicht. Was funktioniert: Sichtbarkeit schaffen, ein pragmatisches Governance-Framework aufbauen, sichere Alternativen bereitstellen und Agent Identities von Anfang an mitdenken. Wer heute die Grundlagen legt, ist für die nächste Welle gewappnet.
Wir bei amiconsult begleiten diesen Weg als SailPoint-Partner, vom ersten Readiness-Workshop über die Implementierung von Shadow AI Remediation bis zur vollständigen Identity-Governance-Lösung. Schreib uns, und wir schauen gemeinsam drauf.