Montag, 8:15 Uhr. Ein Controller kopiert Quartalszahlen in ChatGPT, um eine Prognose erstellen zu lassen. Eine Marketingleiterin lässt sich eine Pressemitteilung umformulieren. Ein Entwickler optimiert proprietären Quellcode über einen KI-Chatbot. Keiner von ihnen handelt böswillig; alle drei wollen einfach schneller und produktiver arbeiten. Und keiner von ihnen hat die IT-Abteilung gefragt.
Was hier passiert, hat einen Namen: Shadow AI; auch als Schatten-KI bekannt. Und es passiert gerade mit hoher Wahrscheinlichkeit auch in Ihrem Unternehmen. Laut einer Studie der Software AG unter 6.000 Wissensarbeitern in den USA, Großbritannien und Deutschland nutzen mehr als 50 Prozent nicht genehmigte KI-Tools im Arbeitsalltag und 46 Prozent würden damit auch nach einem Verbot weitermachen. Das Phänomen ist kein Randthema mehr. Es ist der Normalzustand und eine der größten Herausforderungen für CISOs, IT-Leiter und Geschäftsführungen gleichermaßen. Denn mit dem EU AI Act, NIS2 und der DSGVO wird aus einem IT-Problem ein handfestes Haftungsrisiko.
Was genau ist Shadow AI?
Shadow AI kurz erklärt: Shadow AI (auch: Schatten-KI) bezeichnet den Einsatz von KI-Tools und KI-Anwendungen durch Mitarbeitende in Unternehmen ohne Wissen, Genehmigung oder Kontrolle der IT-Abteilung. Typische Beispiele: ChatGPT für E-Mails nutzen, Quellcode über KI-Chatbots optimieren oder Kundendaten in KI-Analysetools hochladen. Die Nutzung geschieht meist nicht böswillig, sondern aus dem Wunsch nach mehr Produktivität, birgt aber erhebliche Risiken für Datenschutz, Compliance und IT-Sicherheit.
In der Praxis zeigt sich Shadow AI vor allem in zwei Szenarien.
Erstens: Mitarbeitende aktivieren neue KI-Funktionen in bereits vorhandenen Tools; etwa die KI-gestützte Zusammenfassung in Microsoft Teams oder eine Copilot-Integration, ohne zu wissen, dass diese Änderungen eine Sicherheitsprüfung erfordern würden.
Zweitens: Teams oder einzelne Personen setzen eigenständig externe KI-Tools wie ChatGPT, Google Gemini, DeepSeek oder Midjourney für berufliche Aufgaben ein, ohne vorherige Abstimmung mit IT, Datenschutz oder Compliance.
Was die Nutzung so verbreitet macht: Diese Tools sind kostenlos oder günstig, sie laufen direkt im Browser und sie liefern in Sekunden Ergebnisse, für die intern Stunden oder Tage nötig wären.
Worin unterscheidet sich Shadow AI von Shadow IT?
Der Begriff Shadow AI ist bewusst an „Shadow IT“ angelehnt, doch er beschreibt ein deutlich größeres Risiko. Shadow IT betrifft klassischerweise nicht genehmigte Software oder Hardware: Ein Team nutzt Trello statt des offiziellen Projektmanagement-Tools, jemand speichert Dateien in einer privaten Dropbox statt auf dem Unternehmensserver. Das ist ärgerlich, aber in der Regel überschaubar und mit etablierten Erkennungsstrategien kontrollierbar.
Shadow AI geht in mehrfacher Hinsicht weiter. KI-Tools verarbeiten Daten aktiv, oft hochsensible. Wenn ein Mitarbeitender eine Kunden-E-Mail in ChatGPT einfügt, um sie professioneller zu formulieren, passiert technisch Folgendes: Der gesamte Text verlässt das Unternehmensnetzwerk, wird auf externen Servern des KI-Anbieters verarbeitet und kann dort potenziell gespeichert oder sogar für das Training zukünftiger KI-Modelle verwendet werden. Das bedeutet: Jede einzelne Eingabe in ein externes KI-Tool ist potenziell eine unkontrollierte Datenübermittlung an Dritte – ohne Auftragsverarbeitungsvertrag (AVV), ohne Datenschutzfolgenabschätzung, ohne jede Protokollierung.
Hinzu kommt: Shadow IT erfordert oft ein gewisses technisches Know-how. Shadow AI dagegen passiert in Sekunden, direkt im Browser, von jedem Arbeitsplatz aus. Die Einstiegshürde ist praktisch null, was die Kontrolle für Sicherheitsteams enorm erschwert. Während sich klassische Schatten-IT über Netzwerk-Scans und Software-Inventare relativ zuverlässig aufspüren lässt, hinterlässt Shadow AI in vielen Fällen keinerlei Spuren in den internen Systemen. Es gibt keine Logs, keine Installationen, keine auffälligen Downloads; nur einen Browser-Tab, der sich jederzeit schließen lässt.
Warum ist Shadow AI in Unternehmen so verbreitet?
Die schnelle Verbreitung von Shadow AI hat weniger mit Nachlässigkeit der Mitarbeitenden zu tun als mit strukturellen Lücken in vielen Organisationen.
Der wichtigste Treiber ist die sofortige Verfügbarkeit leistungsfähiger KI-Tools. ChatGPT, Claude, Gemini oder Perplexity sind browserbasiert, erfordern keine Installation und oft nicht einmal eine Bezahlung. Im Vergleich dazu dauern IT-Freigabeprozesse in vielen Unternehmen Wochen oder Monate. Wer morgen eine Präsentation abgeben muss, wartet nicht auf ein Genehmigungsverfahren.
Dazu kommt ein realer Produktivitätsvorteil. Wer einmal erlebt hat, wie ein KI-Tool in Sekunden einen Bericht zusammenfasst, eine E-Mail formuliert oder Daten analysiert, will nicht mehr darauf verzichten.
Gleichzeitig fehlen in vielen Unternehmen klare Richtlinien für den KI-Einsatz. Eine repräsentative Bitkom-Umfrage unter 604 Unternehmen zeigt: 40 Prozent gehen davon aus, dass Mitarbeitende private KI-Tools für berufliche Zwecke nutzen, doch nur ein Bruchteil hat verbindliche Nutzungsregeln definiert. Wo keine Leitplanken stehen, suchen sich Mitarbeitende ihren eigenen Weg.
Shadow AI ist damit kein Fehlverhalten einzelner Personen. Sie ist ein Symptom fehlender KI-Strategie und fehlender sicherer Alternativen. Und das Problem wächst: Mit der zunehmenden Verbreitung von KI-Agenten, die eigenständig Aufgaben ausführen, Browser-Erweiterungen mit eingebauter KI und KI-Funktionen, die in alltägliche SaaS-Tools integriert werden, verschwimmen die Grenzen zwischen genehmigter und nicht genehmigter KI-Nutzung weiter.
Der Samsung-Vorfall: Was passiert, wenn Shadow AI sichtbar wird?
Der wohl bekannteste Shadow-AI-Vorfall ereignete sich bei Samsung im Frühjahr 2023 und zeigt exemplarisch, wie schnell unkontrollierte KI-Nutzung eskalieren kann.
Nur 20 Tage nach der internen Freigabe von ChatGPT kam es zu drei separaten Datenlecks. Samsung-Ingenieure luden proprietären Quellcode, interne Testprotokolle und Meeting-Notizen in das Sprachmodell hoch. Die Konsequenz: Samsung verbannte ChatGPT und andere KI-Chatbots vollständig für alle Mitarbeitenden. Doch der Schaden war bereits angerichtet. Die hochgeladenen Daten befanden sich auf den Servern von OpenAI und konnten potenziell zum Training zukünftiger Modelle verwendet werden. Für ein Unternehmen, dessen gesamte Marktposition auf technologischem Vorsprung basiert, ein Worst-Case-Szenario.
Samsung ist dabei kein Einzelfall. Laut dem Stanford HAI AI Index Report wurden allein 2024 insgesamt 233 dokumentierte KI-bezogene Sicherheitsvorfälle registriert, viele davon mit direktem Bezug zu unkontrollierter KI-Nutzung in Unternehmen. Der IBM Cost of a Data Breach Report 2025 zeigt zudem: Datenschutzverletzungen, die mit Shadow AI in Verbindung stehen, kosten durchschnittlich 4,63 Millionen US-Dollar – 670.000 Dollar mehr als bei herkömmlichen Vorfällen. Jedes fünfte untersuchte Unternehmen war von einem solchen Vorfall betroffen. Die Lektion aus all dem: Verbote kamen zu spät und lösten das eigentliche Problem nicht.
Welche Risiken entstehen durch Shadow AI?
Die Sicherheitsrisiken von Shadow AI sind vielschichtig und stellen Unternehmen vor Herausforderungen, die weit über klassische IT-Sicherheit hinausgehen. Sie betreffen Datenschutz, Compliance, Qualitätssicherung und den Schutz geistigen Eigentums gleichermaßen.
Unkontrollierter Datenabfluss
Das offensichtlichste und unmittelbarste Risiko: Vertrauliche Unternehmensdaten, Kundenlisten, Finanzzahlen, Quellcode, Strategiepapiere, gelangen auf externe Server, die außerhalb der Kontrolle des Unternehmens liegen. Eine Untersuchung von CybSafe und der National Cybersecurity Alliance zeigt, dass 38 Prozent der Mitarbeitenden vertrauliche Daten mit KI-Plattformen teilen, die keiner Unternehmenskontrolle unterliegen. Ohne Data Loss Prevention (DLP), also Systeme, die den Abfluss sensibler Daten erkennen und verhindern, haben Unternehmen keinerlei Sichtbarkeit darüber, welche Daten ihre Organisation verlassen.
DSGVO-Verstöße
Jede Eingabe personenbezogener Daten in ein externes KI-Tool kann eine Datenverarbeitung im Sinne der DSGVO darstellen. Bei US-amerikanischen Anbietern wie OpenAI ist es darüber hinaus eine Datenübermittlung in ein Drittland, ohne Standardvertragsklauseln, ohne Auftragsverarbeitungsvertrag, ohne Information der Betroffenen. Das sind gleich mehrere DSGVO-Verstöße auf einmal. Die möglichen Bußgelder: bis zu 20 Millionen Euro oder vier Prozent des weltweiten Jahresumsatzes (je nachdem, welcher Betrag höher ist).
Compliance-Lücken durch EU AI Act & NIS2
Mit dem EU AI Act, der seit August 2025 schrittweise in Kraft tritt, verschärft sich die Lage weiter. Das Gesetz verlangt von Unternehmen ein vollständiges Inventar aller genutzten KI-Anwendungen als Grundlage für die Risikoeinstufung. Shadow AI macht genau das unmöglich: Wenn die IT-Abteilung nicht weiß, welche KI-Tools im Einsatz sind, kann sie weder ein Inventar erstellen noch eine Risikobewertung durchführen. Zusätzlich gilt seit Februar 2025 eine KI-Kompetenz-Pflicht: alle Mitarbeitenden, die mit KI arbeiten, müssen entsprechend geschult sein. Auch die NIS2-Richtlinie fordert ein umfassendes Risikomanagement für IT-Sicherheit. Shadow-AI-Tools stellen dabei unbekannte Angriffsvektoren dar, für die im Ernstfall weder Audit-Trails noch Protokollierung existieren.
Fehlerhafte Geschäftsentscheidungen
KI-Modelle halluzinieren, das heißt, sie erzeugen überzeugend formulierte Antworten, die schlicht falsch sind, liefern veraltete Informationen oder erzeugen plausibel klingende, aber inhaltlich fehlerhafte Analysen. Ohne Qualitätskontrolle und Validierung fließen diese Outputs direkt in Geschäftsentscheidungen ein. Ein viel zitiertes Beispiel: Zwei New Yorker Anwälte nutzten ChatGPT für juristische Recherchen, ohne die Ergebnisse zu prüfen. Das KI-Tool lieferte komplett erfundene Gerichtsentscheidungen, was zu einer Strafe von 5.000 US-Dollar und erheblichem Reputationsschaden führte.
Verlust von geistigem Eigentum
Wenn proprietärer Code, Geschäftsgeheimnisse oder Forschungsergebnisse in externe KI-Modelle einfließen, ist das geistige Eigentum potenziell kompromittiert. Anders als bei einem klassischen Datenleck lässt sich dieser Verlust nicht rückgängig machen, die Daten können bereits in die Trainingsbasis des Modells eingeflossen sein.
Warum funktionieren Verbote nicht?
Die naheliegendste Reaktion vieler Unternehmen auf Shadow AI ist ein pauschales Verbot: Keine KI-Tools, keine Ausnahmen. Samsung hat das getan, ebenso zahlreiche Banken, Behörden und Konzerne.
Doch Verbote lösen das Problem nicht, sie verlagern es nur. Studien zeigen, dass Mitarbeitende trotz Verboten weiterhin KI-Tools nutzen. Sie weichen auf private Geräte aus, nutzen Mobilfunkverbindungen statt des Firmennetzwerks oder arbeiten über persönliche Accounts. Das Ergebnis: Die Shadow AI wird noch unsichtbarer, noch schwerer zu kontrollieren und damit noch riskanter.
Der Grund ist nachvollziehbar: KI-Tools liefern echte Produktivitätsgewinne. Ein Verbot, das keine gleichwertige Alternative bietet, wird schlicht ignoriert. Die effektivere Strategie lautet deshalb: Enablement statt Restriktion.
Wie können Unternehmen Shadow AI wirksam steuern?
Statt KI-Nutzung zu verhindern, müssen Unternehmen sie sicher ermöglichen. Dafür braucht es eine Kombination aus Transparenz, Governance, sicheren Alternativen und kontinuierlicher Kontrolle.
Sichtbarkeit herstellen und ein KI-Inventar aufbauen
Der erste Schritt ist die Herstellung von Transparenz. Welche KI-Tools werden tatsächlich genutzt? Technisch lässt sich das über Cloud Access Security Broker (CASB), eine Art Sicherheitsschleuse zwischen Unternehmensnetzwerk und Cloud-Diensten, DLP-Lösungen und Netzwerk-Monitoring erreichen, die KI-bezogenen Datenverkehr identifizieren. Organisatorisch empfiehlt sich eine nicht-bestrafende Mitarbeiterbefragung: Fragen Sie nicht „Nutzen Sie verbotene Tools?“, sondern „Welche Tools helfen Ihnen bei Ihrer täglichen Arbeit?“. Die Erfahrung zeigt, dass Mitarbeitende bei dieser Herangehensweise überraschend offen antworten.
Klare und pragmatische KI-Richtlinien definieren
Unternehmen brauchen eine KI-Nutzungsrichtlinie, die drei Kernfragen beantwortet:
Welche KI-Tools sind für welche Zwecke genehmigt?
Welche Daten dürfen in KI-Tools eingegeben werden und welche auf keinen Fall?
Und welcher Genehmigungsprozess gilt für neue Tools?
Diese Richtlinie muss pragmatisch sein. Eine Seite mit klaren Regeln und konkreten Beispielen ist wirkungsvoller als ein 50-seitiges Policy-Dokument, das niemand liest.
Sichere Alternativen bereitstellen
Der wirksamste Hebel gegen Shadow AI ist ein attraktives offizielles Angebot. Unternehmen sollten ihren Mitarbeitenden KI-Tools zur Verfügung stellen, die in einer kontrollierten Umgebung laufen, etwa über Azure OpenAI Service oder selbst gehostete Modelle. Entscheidend: Die offizielle Lösung muss mindestens so leistungsfähig und so einfach nutzbar sein wie die Shadow-Alternativen. Andernfalls werden Mitarbeitende weiterhin den Weg des geringsten Widerstands gehen.
Awareness schaffen statt bestrafen
Schulungen zum Thema KI-Sicherheit sollten praxisnah sein, keine PowerPoint-Pflichtveranstaltungen. Zeigen Sie an echten Beispielen, wie dem Samsung-Fall, was passieren kann, wenn sensible Daten in unkontrollierte KI-Systeme gelangen. Der Fokus sollte auf Sensibilisierung liegen, nicht auf Bestrafung. Eine Blame-Culture führt dazu, dass Mitarbeitende ihre KI-Nutzung nur noch besser verstecken.
Governance als fortlaufenden Prozess etablieren
Shadow AI erfordert kontinuierliche Kontrolle und Governance. Neue KI-Tools erscheinen wöchentlich, Anwendungsfälle entwickeln sich weiter und regulatorische Anforderungen verändern sich. Quartalsweise KI-Audits, regelmäßige Updates des KI-Inventars und laufende Schulungen zur KI-Kompetenz, wie sie der EU AI Act ohnehin fordert, sollten fester Bestandteil der Cybersicherheit jedes Unternehmens werden.
Besonders wichtig für CISOs und Geschäftsführungen: Die NIS2-Richtlinie sieht eine persönliche Haftung des Managements vor, wenn keine angemessenen Maßnahmen für IT-Sicherheit getroffen werden. Shadow AI gehört damit nicht nur auf die Agenda der IT-Abteilung, sondern auf die jedes Board-Meetings.
KI-Inventar erstellt
Überblick über alle genutzten KI-Tools (genehmigt und ungenehmigt)
KI-Richtlinie definiert
Klare Regeln, welche Tools und Daten erlaubt sind
Sichere Alternativen bereitgestellt
Enterprise-KI-Lösung mit Datenschutzgarantien im Einsatz
Mitarbeitende geschult
Praxisnahe Awareness-Trainings zu KI-Risiken durchgeführt
Monitoring aktiviert
CASB, DLP oder Netzwerkanalyse für KI-Datenverkehr eingerichtet
Regelmäßige Audits geplant
Quartalsweise Überprüfung der tatsächlichen KI-Nutzung
Governance-Verantwortung geklärt
Zuständigkeiten für KI-Governance auf Managementebene verankert
Fazit: Shadow AI ist kein Problem, sondern ein Signal
Shadow AI zeigt, dass Mitarbeitende Innovation wollen, bevor die Organisation dafür bereit ist. Wer Shadow AI nur bekämpft, bekämpft Symptome. Wer sie steuert, schafft echte Wettbewerbsvorteile.
Drei Dinge braucht es dafür:
Erstens Transparenz darüber, welche KI-Tools tatsächlich im Einsatz sind.
Zweitens sichere, leistungsfähige Alternativen, die den Arbeitsalltag wirklich erleichtern.
Und drittens eine Governance-Struktur, die Innovation ermöglicht, statt sie zu blockieren.
Mit EU AI Act, NIS2 und DSGVO ist das Zeitfenster für „wir kümmern uns später“ geschlossen. Unternehmen, die jetzt handeln, schützen nicht nur ihre Daten und ihre Compliance; sie schaffen die Grundlage dafür, KI als echten Wettbewerbsvorteil zu nutzen, statt ihr hinterherzulaufen.
FAQ: Häufige Fragen zu Shadow AI
Shadow AI bezeichnet den Einsatz von KI-Tools durch Mitarbeitende ohne Wissen, Genehmigung oder Kontrolle der IT-Abteilung. Typische Beispiele sind die Nutzung von ChatGPT, Google Gemini oder anderen KI-Anwendungen für berufliche Aufgaben ohne offizielle Freigabe.
Shadow IT betrifft nicht genehmigte Software und Hardware allgemein. Shadow AI geht weiter: KI-Tools verarbeiten aktiv Daten auf externen Servern und können Eingaben potenziell für Modelltraining verwenden. Jede Eingabe ist damit eine mögliche Datenübermittlung an Dritte.
Die größten Risiken sind unkontrollierter Datenabfluss, Verstöße gegen DSGVO und EU AI Act, fehlerhafte Geschäftsentscheidungen durch ungeprüfte KI-Outputs, Verlust von geistigem Eigentum und Reputationsschäden.
Sehr verbreitet. Laut Software AG nutzen mehr als 50 Prozent aller Wissensarbeiter nicht genehmigte KI-Tools im Job. Eine Bitkom-Umfrage zeigt, dass 40 Prozent der deutschen Unternehmen davon ausgehen, dass Mitarbeitende private KI-Tools beruflich einsetzen.
Durch eine Kombination aus KI-Inventar, klaren Nutzungsrichtlinien, sicheren Enterprise-Alternativen, praxisnahen Schulungen und kontinuierlichem Monitoring. Pauschale Verbote sind wirkungslos. Enablement schlägt Restriktion.









Das muss man gelesen haben?
Behalten Sie ihr Wissen nicht für sich und teilen Sie diesen Beitrag.