Ihre Mitarbeiter nutzen bereits KI. Die Frage ist nur, ob Sie davon wissen. Laut dem „State of Shadow AI“-Bericht von UpGuard verwenden mehr als 80 % der Arbeitnehmer nicht genehmigte KI-Tools, und Data Breach „2025 Cost of Data Breach von IBM ergab, dass jedes fünfte Unternehmen bereits einen Datenverstoß im Zusammenhang mit nicht genehmigter KI erlebt hat. Die Kluft zwischen der Geschwindigkeit, mit der Mitarbeiter KI einführen, und der Langsamkeit, mit der Unternehmen diese regeln, hat eine neue Kategorie von Unternehmensrisiken geschaffen: Shadow-KI. Dieser Artikel erläutert, was Shadow-KI ist, warum sie entsteht, wie sie sich von Shadow-IT unterscheidet, welche finanziellen und Compliance-Risiken sie mit sich bringt und wie man ein Erkennungs- und Governance-Programm aufbaut, das tatsächlich funktioniert.
Unter „Shadow AI“ versteht man die Nutzung von KI-Tools, -Modellen und -Diensten durch Mitarbeiter ohne Wissen, Genehmigung oder Kontrolle durch die IT- oder Sicherheitsteams ihres Unternehmens. Das Spektrum reicht vom einzelnen Mitarbeiter, der proprietären Quellcode in ChatGPT einfügt, bis hin zu ganzen Abteilungen, die nicht genehmigte KI-Plugins einsetzen, die sensible Kundendaten verarbeiten.
Das Ausmaß des Problems ist erschreckend. Die Analyse von Harmonic Security, die 22,4 Millionen KI-Befehle in Unternehmen untersuchte, ergab, dass 665 verschiedene generative KI-Tools in Unternehmensumgebungen im Einsatz sind, doch nur 40 % der Unternehmen hatten offizielle KI-Abonnements erworben. Die Schatten-KI-Wirtschaft – das weitläufige, unregulierte Ökosystem aus kostenlosen KI-Tools, Browser-Erweiterungen, Code-Assistenten und eingebetteten SaaS-Funktionen, die Mitarbeiter eigenmächtig nutzen – stellt mittlerweile die offiziellen KI-Implementierungen in den meisten Unternehmen in den Schatten.
Der Begriff „Shadow-KI“ geht über Chatbots hinaus. Er umfasst Code-Assistenten wie GitHub Copilot, die auf privaten Konten genutzt werden, KI-gestützte Browser-Erweiterungen, Übersetzungs- und Schreibtools, Open-Source-Modelle, die lokal auf Firmenlaptops ausgeführt werden, sowie KI-Funktionen, die in SaaS-Anwendungen eingebettet sind und ohne Wissen der IT-Abteilung aktiviert werden. Jedes KI-System, das Unternehmensdaten außerhalb der Grenzen der KI-Sicherheits-Governance verarbeitet, fällt darunter.
Die Dringlichkeit hat stark zugenommen. Gartner prognostiziert, dass bis 2030 mehr als 40 % der Unternehmen Sicherheits- oder Compliance-Vorfälle erleben werden, die mit unbefugter Schatten-KI in Verbindung stehen. Der GenAI-Datenverkehr stieg 2024 um mehr als 890 %, und Menlo Security meldete für 2025 einen Anstieg der Nutzung von generativer Schatten-KI in Unternehmen um 68 %. Nur 37 % der Unternehmen verfügen über Richtlinien zur Verwaltung oder gar Erkennung von Schatten-KI (IBM, 2025), sodass die Mehrheit im Dunkeln tappt, während sich die Sicherheitsrisiken durch generative KI verschärfen.
Shadow-KI ist eine Unterkategorie und Weiterentwicklung von Shadow-IT, weist jedoch spezifische Merkmale auf, die ihre Erkennung erschweren und es deutlich gefährlicher machen, sie zu ignorieren. Während es bei Shadow-IT um nicht genehmigte Hardware, SaaS-Anwendungen oder cloud geht, verarbeitet, lernt und speichert Shadow-KI Unternehmensdaten aktiv auf eine Weise, die Insider-Bedrohungen in großem Umfang hervorruft.
Shadow AI vs. Shadow IT: Die wichtigsten Unterschiede, die Unternehmen kennen müssen
Shadow AI birgt alle Risiken der Schatten-IT und kommt noch dazu das Risiko von Datenmissbrauch beim Training, das Risiko der Ungenauigkeit der Ergebnisse sowie KI-spezifische regulatorische Verpflichtungen hinzu, die nun durch Rahmenwerke wie den EU-KI-Gesetz durchgesetzt werden.
Das Verständnis der Ursachen ist entscheidend für den Aufbau einer funktionierenden Governance. Schatten-KI gedeiht dort, wo es an Governance mangelt und die genehmigten Tools hinter dem zurückbleiben, worauf die Mitarbeiter eigenständig zugreifen können.
Shadow-AI birgt finanzielle, operative, Compliance- und Reputationsrisiken, die sich mit zunehmender Nutzung verstärken. Die Beweislage ist eindeutig und quantifizierbar.
Der Weg , auf dem Daten nach außen gelangen, ist einfach, lässt sich jedoch nur schwer überwachen. Ein Mitarbeiter kopiert sensible Daten, fügt sie in ein KI-Tool ein, und schon verlassen diese Daten den Sicherheitsperimeter des Unternehmens. Zu den möglichen Übertragungswegen gehören das Kopieren und Einfügen in Chat-Oberflächen, das Hochladen von Dateien auf KI-Plattformen, API-Integrationen zwischen SaaS-Tools und KI-Diensten, Browser-Erweiterungen, die Seiteninhalte abfangen, sowie OAuth-Token, die KI-Agenten dauerhaften Zugriff auf Daten gewähren.
38 Prozent der Beschäftigten geben zu, sensible Arbeitsdaten ohne Erlaubnis ihres Arbeitgebers an KI-Tools weiterzugeben (CybSafe/NCA, 2024). Entscheidend ist, dass Harmonic Security feststellte, dass 16,9 % der Fälle von Datenpannen – insgesamt 98.034 Vorfälle – auf privaten Konten mit kostenlosem Basiszugang stattfanden, die für die IT-Abteilung völlig unsichtbar waren.
Beispiele aus der Praxis veranschaulichen die konkreten Auswirkungen von „Shadow AI“ in verschiedenen Branchen.
Drei Halbleiteringenieure von Samsung haben innerhalb eines Monats vertrauliche Daten weitergegeben, indem sie Quellcode, Sitzungsprotokolle und Testsequenzen zur Chipausbeute in ChatGPT eingefügt haben. Samsung hatte ChatGPT zunächst gesperrt – diese Entscheidung dann jedoch rückgängig gemacht, um stattdessen eine interne KI-Lösung zu entwickeln. Der Vorfall verdeutlicht ein Muster: Reaktive Sperrmaßnahmen scheitern, und Unternehmen benötigen proaktive Richtlinien zur akzeptablen Nutzung sowie eine Datenklassifizierung, bevor sich „Schatten-KI“ fest etabliert.
Eine Umfrage aus dem Jahr 2026 ergab, dass 57 % der medizinischen Fachkräfte bereits mit nicht zugelassenen KI-Tools in Berührung gekommen sind oder diese genutzt haben. Ärzte nutzen ChatGPT, Claude und Gemini, um SOAP-Berichte zu verfassen, Diagnosehypothesen zu erstellen und Behandlungspläne zusammenzustellen – und verarbeiten dabei geschützte Gesundheitsdaten ohne entsprechende Verträge mit Geschäftspartnern. Die Risiken für die Cybersicherheit im Gesundheitswesen sind zweierlei: Verstöße gegen die HIPAA-Datenschutzbestimmungen und Bedenken hinsichtlich der klinischen Genauigkeit, die sich direkt auf die Patientensicherheit auswirken können.
Eine Maßnahme im Gesundheitswesen führte zu einem Rückgang der unbefugten KI-Nutzung um 89 % und einer täglichen Zeitersparnis von 32 Minuten pro medizinischem Fachpersonal, sobald zugelassene Tools zur Verfügung gestellt wurden. Die Erkenntnis ist klar: Stellt die Tools bereit, setzt Grenzen, und die Nutzung wandelt sich von einer inoffiziellen zu einer genehmigten Praxis.
Eine weltweite Studie von IBM unter 600 Unternehmen hat die finanziellen Auswirkungen quantifiziert. Schatten-KI erhöhte die durchschnittlichen Kosten für Sicherheitsverletzungen um 670.000 US-Dollar; 20 % der Unternehmen meldeten Sicherheitsverletzungen, die speziell durch Schatten-KI verursacht wurden, und nur 37 % verfügten über Richtlinien zur Erkennung oder Steuerung. Für CISOs, die einen Business Case erstellen, ist der ROI von Governance in diesen Zahlen enthalten: Ein Governance-Programm, das jährlich weniger als 670.000 US-Dollar kostet, macht sich bereits bei einem einzigen Sicherheitsvorfall bezahlt.
Eine wirksame Erkennung von Schatten-KI erfordert eine mehrschichtige Architektur. Kein einzelnes Tool deckt alle Aspekte ab, und Unternehmen, die sich auf eine einzige Erkennungsmethode verlassen, werden KI-Tools übersehen, die über andere Kanäle agieren.
Mehrschichtige KI-Erkennungsarchitektur für Schattenbereiche, die Netzwerk-, SaaS-, endpoint und Browser-Transparenz abdeckt
Die Prüfungsmethodik der ISACA empfiehlt, diese Schritte in bestehende IT-Prüfungszyklen zu integrieren. In einem durchschnittlichen Unternehmen kommt es monatlich zu 223 Verstößen gegen Datenrichtlinien im Zusammenhang mit der Nutzung von KI (Netskope, 2026), weshalb eine kontinuierliche Überwachung unerlässlich ist.
Eine wirksame Erkennung von Bedrohungen ist nur die halbe Miete. Die andere Hälfte besteht darin, dafür zu sorgen, dass die Unternehmensführung den Menschen zugutekommt und nicht gegen sie arbeitet.
Eine effektive Governance für Shadow-AI funktioniert dann, wenn sie sich auf Datengrenzen und genehmigte Alternativen konzentriert, anstatt pauschale Verbote zu erlassen, die von den Mitarbeitern ohnehin umgangen werden. Nur 37 % der Unternehmen verfügen über entsprechende Governance-Richtlinien (IBM, 2025), was bedeutet, dass 63 % ohne Leitplanken arbeiten.
Eine wirksame Richtlinie für den Umgang mit KI sollte KI-Tools in drei Kategorien einteilen: vollständig zugelassen (keine Einschränkungen über den üblichen Umgang mit Daten hinaus), eingeschränkte Nutzung (zugelassen unter Einhaltung spezifischer Regeln für den Umgang mit Daten) und verboten (risikoreiche oder nicht konforme Tools). Die Cloud Alliance empfiehlt ein fünfstufiges Governance-Rahmenwerk: Erfassen, Klassifizieren, Risikobewertung, Implementierung von Kontrollmaßnahmen und kontinuierliche Überwachung.
Zu den wichtigsten Komponenten der KI-Governance zählen die Integration einer Schatten-KI-Governance in bestehende Risikomanagement-Rahmenwerke, die auf das NIST AI RMF und Compliance-Anforderungen abgestimmt sind, funktionsübergreifende KI-Governance-Ausschüsse, die die Bereiche Sicherheit, Recht, Compliance und die Geschäftsbereiche umfassen, Schulungen zur KI-Kompetenz, die parallel zu technischen Kontrollmaßnahmen angeboten werden, sowie regelmäßige KI-Audits, bei denen alle im Einsatz befindlichen KI-Systeme erfasst werden. Unternehmen, die KI-Governance-Tools zur Automatisierung der Erfassung und Durchsetzung von Richtlinien einsetzen, erreichen eine schnellere Abdeckung als solche, die sich ausschließlich auf manuelle Prozesse verlassen.
Shadow AI macht die Einhaltung gesetzlicher Vorschriften unmöglich, da Unternehmen KI-Systeme, von deren Existenz sie nichts wissen, weder verwalten noch inventarisieren noch einer Risikoklasse zuordnen können. Die Compliance-Blindflecken sind konkret und messbar.
Wie „Shadow-KI“ in den wichtigsten Regulierungsrahmen Compliance-Blindflecken verursacht
Gartner prognostiziert, dass die Ausgaben für KI-Governance im Jahr 2026 492 Millionen US-Dollar erreichen und bis 2030 die Marke von 1 Milliarde US-Dollar überschreiten werden – ein klares Zeichen dafür, dass Unternehmen die Notwendigkeit der Compliance erkennen.
Shadow-KI entwickelt sich über einfache Chatbot-Interaktionen hinaus zu autonomen Agenten, die mit maschineller Geschwindigkeit, ohne menschliche Aufsicht und mit ständigem Zugriff auf Unternehmenssysteme arbeiten. Agentenbasierte Shadow-KI – autonome KI-Agenten, die von Mitarbeitern eingesetzt oder in SaaS-Tools eingebettet werden und selbstständig Entscheidungen treffen, auf Daten zugreifen und mit Systemen interagieren – stellt eine grundlegend andere Risikokategorie dar.
Dieser Unterschied ist entscheidend. Bei der herkömmlichen Schatten-KI fügt ein Mensch Daten für eine einzelne Interaktion in ChatGPT ein. Bei der agentenbasierten Schatten-KI hingegen handelt es sich um einen autonomen Agenten mit API-Zugriff, der Aktionen über mehrere Dienste hinweg verknüpft, kontinuierlich läuft und Entscheidungen ohne menschliche Überprüfung trifft. Diese Agenten fungieren als beständige, mit Maschinen-Geschwindigkeit arbeitende „operative Insider“, die herkömmliche Governance-Rahmenbedingungen vollständig umgehen.
Die Bedrohung ist keine theoretische. Der „2026 Global Threat Report“ von CrowdStrike ergab, dass Angreifer generative KI-Tools in über 90 Organisationen ausgenutzt haben, wobei ChatGPT in kriminellen Foren um 550 % häufiger erwähnt wurde. 98 % der Organisationen berichten von nicht genehmigter KI-Nutzung, und 49 % rechnen innerhalb der nächsten 12 Monate mit „Shadow-AI“-Vorfällen. Gartner prognostiziert, dass bis Ende 2026 40 % der Unternehmensanwendungen über aufgabenspezifische KI-Agenten verfügen werden – gegenüber weniger als 5 % im Jahr 2025.
Zu den Bedrohungsvektoren zählen MCP-Server (Model Context Protocol), die interne APIs offenlegen, Browser-Erweiterungen mit KI-Agent-Funktionen, über OAuth verbundene Agenten mit dauerhaftem Datenzugriff sowie eine unkontrollierte Verbreitung von API-Tokens, die zu unbeaufsichtigten Zugriffsketten führt. Die Sicherheit agentischer KI erfordert nicht nur die Überwachung dessen, was Mitarbeiter mit der KI tun, sondern auch dessen, was die KI eigenständig tut – einschließlich prompt injection , die ungesicherte Schattenagenten als Waffe einsetzen. Wie CIO.com berichtet, wurden traditionelle Governance-Rahmenwerke für Interaktionen in menschlicher Geschwindigkeit und auf menschliche Initiative hin konzipiert und können mit dem Verhalten autonomer Agenten nicht Schritt halten.
Die Branche einigt sich zunehmend auf einen klaren Grundsatz: Regulierung statt Verbot. Samsung hat sein ursprüngliches Verbot von ChatGPT wieder aufgehoben. Gesundheitsorganisationen, die zugelassene Alternativen bereitstellten, verzeichneten einen Rückgang der unbefugten Nutzung um 89 %. Das Muster ist eindeutig: Organisationen, die sichere KI-Tools bereitstellen und klare Grenzen für die Datennutzung setzen, schneiden besser ab als solche, die pauschale Verbote verhängen.
Eine moderne KI-basierte Verteidigung gegen Schatten-IT erfordert einen einheitlichen Überblick über die gesamte hybride Angriffsfläche. Zu den neuen Funktionen zählen KI-native Sicherheitsplattformen, SaaS-Sicherheitsmanagement, DLP auf Browserebene und identitätsbasierte KI-Überwachung. Die Erkennung und Reaktion im Netzwerk bildet weiterhin die grundlegende Ebene, da die Analyse des Datenverkehrs zu Endpunkten mit generativer KI Transparenz bietet, unabhängig davon, welche Tools die Mitarbeiter nutzen.
Bei „Shadow AI“ handelt es sich im Grunde genommen um ein Problem der Transparenz und der Erkennung von Anomalien. Unternehmen, die sich ausschließlich auf Richtlinien oder endpoint verlassen, übersehen die KI-Tools, die in ihrem Netzwerk, in cloud, im Identitätsbereich und auf SaaS-Plattformen zum Einsatz kommen. Der Ansatz Vectra AI betrachtet das moderne Netzwerk als eine einheitliche Angriffsfläche – die sich über lokale,cloud, Identitäts-, SaaS- und KI-Infrastrukturen erstreckt. Nicht genehmigter KI-Datenverkehr, anomale Datenströme zu externen KI-Diensten und identitätsbasierte Risiken durch die Ausbreitung von OAuth-Tokens erzeugen allesamt Verhaltenssignale. KI-gestützte Erkennung erfasst diese Signale und ermöglicht es Sicherheitsteams, das zu entdecken, was Richtlinien allein nicht erkennen können.
„Shadow-KI“ ist kein Problem, das Unternehmen ignorieren, verbieten oder mit einem einzigen Tool lösen können. Die Daten sprechen eine klare Sprache: 80 % der Mitarbeiter nutzen nicht genehmigte KI, „Shadow-KI“ erhöht die Kosten für Sicherheitsverletzungen um 670.000 US-Dollar, und nur 37 % der Unternehmen verfügen über entsprechende Governance-Richtlinien. Da sich KI von Chatbots hin zu autonomen Agenten entwickelt, wächst die Angriffsfläche schneller, als den meisten Sicherheitsteams bewusst ist.
Der Weg in die Zukunft verbindet Transparenz, Steuerung und Unterstützung. Erkennen Sie „Schatten-KI“ in allen Bereichen des Unternehmens. Erstellen Sie Richtlinien, die Datengrenzen festlegen, anstatt pauschale Verbote zu erlassen. Bieten Sie genehmigte Alternativen an, die die Einhaltung von Vorschriften zum einfachsten Weg machen. Und bereiten Sie sich auf autonome Schatten-KI vor, indem Sie nicht nur überwachen, was Mitarbeiter mit KI tun, sondern auch, was KI eigenständig tut.
Unternehmen, die von einer Kompromittierung ausgehen und in eine einheitliche Transparenz ihrer gesamten hybriden Angriffsfläche investieren, sind in der Lage, dieses Risiko zu bewältigen. Diejenigen, die erst auf einen Sicherheitsvorfall warten, um Maßnahmen zu ergreifen, werden den Preis dafür zahlen.
„Shadow AI“ an sich ist nicht per se illegal, birgt jedoch erhebliche rechtliche Haftungsrisiken. Wenn Mitarbeiter nicht genehmigte KI-Tools zur Verarbeitung personenbezogener Daten nutzen, drohen Unternehmen Verstöße gegen die DSGVO mit Geldbußen von bis zu 20 Millionen Euro oder 4 % des weltweiten Jahresumsatzes. Die Verarbeitung geschützter Gesundheitsdaten durch KI-Tools, die nicht unter eine BAA fallen, verstößt gegen den HIPAA. Das EU-KI-Gesetz führt zusätzliche Rechenschaftspflichten ein – wenn Mitarbeiter KI für Aufgaben einsetzen, die nach dem Gesetz als risikoreich eingestuft sind, ohne dass das Unternehmen davon Kenntnis hat, trägt das Unternehmen die Haftung des Einsatzes mit Geldbußen von bis zu 6 % des weltweiten Umsatzes. Die Rechtmäßigkeit hängt letztlich davon ab, welche Daten in das KI-Tool eingegeben werden, welche Vorschriften für das Unternehmen gelten und ob die KI-Nutzung Ergebnisse mit rechtlichen Konsequenzen erzeugt. Unternehmen können sich nicht auf Unwissenheit berufen, wenn Aufsichtsbehörden fragen, welche KI-Systeme im Einsatz sind.
Technisch gesehen können Unternehmen Domain-Sperren, Firewall-Regeln und Richtlinien zur akzeptablen Nutzung einführen, die nicht genehmigte KI-Tools verbieten. In der Praxis funktioniert ein Verbot jedoch selten. Untersuchungen zeigen immer wieder, dass fast die Hälfte der Mitarbeiter auch nach einem offiziellen Verbot weiterhin private KI-Konten nutzen würde. Samsung hatte ChatGPT nach einem Datenleck zunächst verboten, diese Entscheidung später jedoch rückgängig gemacht und stattdessen genehmigte interne Alternativen bereitgestellt. In der Branche herrscht Einigkeit darüber, dass Governance besser funktioniert als Verbote. Ein Governance-First-Ansatz – die Bereitstellung genehmigter KI-Tools, die Festlegung klarer Datengrenzen, der Einsatz von Überwachung statt Sperrung sowie die Durchführung regelmäßiger Audits – führt zu messbar besseren Ergebnissen. Organisationen im Gesundheitswesen, die genehmigte Alternativen bereitstellten, erzielten eine Reduzierung der unbefugten Nutzung um 89 % sowie eine tägliche Zeitersparnis von 32 Minuten pro Arzt.
„Shadow AI“ führt zu einer unkontrollierten Verarbeitung personenbezogener Daten, die unmittelbar gegen mehrere Bestimmungen der DSGVO verstößt. Artikel 5 schreibt eine rechtmäßige und transparente Verarbeitung vor – „Shadow AI“ umgeht beide Anforderungen, da Unternehmen keinen Einblick darin haben, welche Daten ihre Mitarbeiter weitergeben. Artikel 28 verlangt den Abschluss von Datenverarbeitungsvereinbarungen mit Auftragsverarbeitern – wenn Mitarbeiter die kostenlose Version von ChatGPT zur Verarbeitung von Kundendaten nutzen, besteht keine solche Vereinbarung zwischen dem Unternehmen und OpenAI. Artikel 35 verlangt Datenschutz-Folgenabschätzungen für Verarbeitungen mit hohem Risiko – unmöglich bei KI-Tools, von denen das Unternehmen nichts weiß. Die Geldbußen können bis zu 20 Millionen Euro oder 4 % des weltweiten Jahresumsatzes betragen, je nachdem, welcher Betrag höher ist. Über Geldbußen hinaus schafft Schatten-KI blinde Flecken bei Auskunftsersuchen betroffener Personen (DSAR), da Unternehmen keine Auskunft über Datenverarbeitungen geben können, die sie nicht genehmigt oder nachverfolgt haben.
Das Gesundheitswesen ist aufgrund der Sensibilität von Patientendaten und der strengen HIPAA-Vorschriften mit einigen der größten Risiken im Zusammenhang mit „Schatten-KI“ konfrontiert. Eine Umfrage von Healthcare Brew aus dem Februar 2026 ergab, dass 57 % der Fachkräfte im Gesundheitswesen bereits auf nicht autorisierte KI-Tools gestoßen sind oder diese genutzt haben. Ärzte nutzen ChatGPT, Claude und Gemini, um SOAP-Notizen zu verfassen, Diagnosehypothesen zu erstellen, Behandlungspläne zusammenzustellen und Aufklärungsmaterialien für Patienten zu erstellen – oft unter Verarbeitung geschützter Gesundheitsdaten ohne entsprechende Vereinbarungen mit Geschäftspartnern. Die Risiken sind zweierlei: Verstöße gegen die HIPAA-Datenschutzbestimmungen, die mit Geldstrafen von bis zu 1,5 Millionen US-Dollar pro Verstoßkategorie geahndet werden, sowie Bedenken hinsichtlich der klinischen Genauigkeit, da KI-generierte medizinische Inhalte die Patientensicherheit direkt beeinträchtigen könnten. Es gibt jedoch Lösungen. Ein Gesundheitssystem, das zugelassene KI-Tools zur Verfügung stellte, verzeichnete einen Rückgang der unbefugten Nutzung um 89 % und eine tägliche Zeitersparnis von 32 Minuten pro Kliniker, was beweist, dass das richtige Governance-Modell sowohl Daten als auch Produktivität schützt.
Die Analyse von Gartner vom November 2025, die auf einer Umfrage unter 302 Führungskräften im Bereich Cybersicherheit basiert, prognostiziert, dass bis 2030 mehr als 40 % der Unternehmen Sicherheits- oder Compliance-Vorfälle erleben werden, die mit unbefugter Schatten-KI in Verbindung stehen. Dieselbe Untersuchung ergab, dass 69 % der Unternehmen bereits den Verdacht hegen oder Beweise dafür haben, dass Mitarbeiter verbotene öffentliche generative KI-Tools nutzen. Gartner prognostiziert zudem, dass die Ausgaben für KI-Governance im Jahr 2026 492 Millionen US-Dollar erreichen und bis 2030 die Marke von 1 Milliarde US-Dollar überschreiten werden – ein Anstieg um 100 %, der die Dringlichkeit widerspiegelt, die Unternehmen diesem Risiko beimessen. Darüber hinaus prognostiziert Gartner, dass 40 % der Unternehmensanwendungen bis Ende 2026 über aufgabenspezifische KI-Agenten verfügen werden, gegenüber weniger als 5 % im Jahr 2025, was die Angriffsfläche für agentische Schatten-KI erheblich vergrößert.
Eine wirksame Richtlinie zur „Shadow-AI“ beginnt mit einem dreistufigen Klassifizierungssystem für KI-Tools. Vollständig zugelassene Tools unterliegen keinen Einschränkungen, die über die üblichen Richtlinien zum Umgang mit Daten hinausgehen. Tools mit eingeschränkter Nutzung werden unter Einhaltung spezifischer Regeln zum Umgang mit Daten zugelassen – so kann beispielsweise ein Code-Assistent für nicht-proprietären Code, jedoch nicht für Produktionssysteme verwendet werden. Zu den verbotenen Tools gehören solche, die Sicherheitsbewertungen nicht bestehen, in Rechtsräumen mit Bedenken hinsichtlich der Datenhoheit betrieben werden oder keine Garantien für den Umgang mit Unternehmensdaten bieten. Die Richtlinie sollte ausdrücklich definieren, welche Datenkategorien in KI-Tools eingegeben werden dürfen und welche nicht, die Offenlegung der KI-Nutzung in Geschäftsprozessen vorschreiben, einen klaren Genehmigungsprozess für neue Tools festlegen, regelmäßige Audits vorschreiben und Konsequenzen für Verstöße vorsehen. Der Schwerpunkt der Governance sollte auf Datengrenzen liegen und nicht auf Tool-Verboten. ISACA empfiehlt, KI-Audit-Anforderungen in bestehende IT-Audit-Rahmenwerke zu integrieren, um die Einführung zu beschleunigen und eine lückenlose Abdeckung sicherzustellen.
Cloud Security Brokers (CASBs) dienen als wichtige Erkennungsschicht für Schatten-KI, indem sie cloud überwachen und Verbindungen zu bekannten KI-Diensten identifizieren. CASBs ermitteln, auf welche KI-SaaS-Anwendungen Mitarbeiter zugreifen, setzen DLP-Richtlinien für Daten durch, die an KI-Tools fließen, bieten Einblick in OAuth-Token und API-Verbindungen, die von Schatten-KI-Agenten genutzt werden, und erstellen Nutzungsberichte, die das Risiko durch Schatten-KI quantifizieren. CASBs allein reichen jedoch für eine umfassende Erkennung von Schatten-KI nicht aus. Sie übersehen in der Regel lokale KI-Modelle, die auf Endgeräten laufen, können verschlüsselte API-Aufrufe einiger KI-Tools nicht überprüfen und haben nur begrenzte Transparenz über browserbasierte Interaktionen mit KI-Diensten. Eine effektive Erkennung von Schatten-KI kombiniert CASB mit Netzwerkverkehrsanalyse, endpoint , DLP auf Browserebene und identitätsbasierter Überwachung zur Eindämmung der OAuth-Token-Flut. Dieser mehrschichtige Ansatz stellt sicher, dass keine einzelne Erkennungslücke es Schatten-KI ermöglicht, unentdeckt zu agieren.