Was ist Shadow AI? Definition, Risiken und was Unternehmen jetzt tun müssen

Was ist Shadow AI (Schatten-KI)? Erfahren Sie, welche Risiken unkontrollierte KI-Nutzung für DSGVO, EU AI Act und IT-Sicherheit birgt.

25 Min. Lesezeit

Montag, 8:15 Uhr. Ein Controller kopiert Quartalszahlen in ChatGPT, um eine Prognose erstellen zu lassen. Eine Marketingleiterin lässt sich eine Pressemitteilung umformulieren. Ein Entwickler optimiert proprietären Quellcode über einen KI-Chatbot. Keiner von ihnen handelt böswillig; alle drei wollen einfach schneller und produktiver arbeiten. Und keiner von ihnen hat die IT-Abteilung gefragt.

Was hier passiert, hat einen Namen: Shadow AI; auch als Schatten-KI bekannt. Und es passiert gerade mit hoher Wahrscheinlichkeit auch in Ihrem Unternehmen. Laut einer Studie der Software AG unter 6.000 Wissensarbeitern in den USA, Großbritannien und Deutschland nutzen mehr als 50 Prozent nicht genehmigte KI-Tools im Arbeitsalltag und 46 Prozent würden damit auch nach einem Verbot weitermachen. Das Phänomen ist kein Randthema mehr. Es ist der Normalzustand und eine der größten Herausforderungen für CISOs, IT-Leiter und Geschäftsführungen gleichermaßen. Denn mit dem EU AI Act, NIS2 und der DSGVO wird aus einem IT-Problem ein handfestes Haftungsrisiko.

Was genau ist Shadow AI?

Shadow AI kurz erklärt: Shadow AI (auch: Schatten-KI) bezeichnet den Einsatz von KI-Tools und KI-Anwendungen durch Mitarbeitende in Unternehmen ohne Wissen, Genehmigung oder Kontrolle der IT-Abteilung. Typische Beispiele: ChatGPT für E-Mails nutzen, Quellcode über KI-Chatbots optimieren oder Kundendaten in KI-Analysetools hochladen. Die Nutzung geschieht meist nicht böswillig, sondern aus dem Wunsch nach mehr Produktivität, birgt aber erhebliche Risiken für Datenschutz, Compliance und IT-Sicherheit.

In der Praxis zeigt sich Shadow AI vor allem in zwei Szenarien.

Erstens: Mitarbeitende aktivieren neue KI-Funktionen in bereits vorhandenen Tools; etwa die KI-gestützte Zusammenfassung in Microsoft Teams oder eine Copilot-Integration, ohne zu wissen, dass diese Änderungen eine Sicherheitsprüfung erfordern würden.

Zweitens: Teams oder einzelne Personen setzen eigenständig externe KI-Tools wie ChatGPT, Google Gemini, DeepSeek oder Midjourney für berufliche Aufgaben ein, ohne vorherige Abstimmung mit IT, Datenschutz oder Compliance.

Was die Nutzung so verbreitet macht: Diese Tools sind kostenlos oder günstig, sie laufen direkt im Browser und sie liefern in Sekunden Ergebnisse, für die intern Stunden oder Tage nötig wären.

Worin unterscheidet sich Shadow AI von Shadow IT?

Der Begriff Shadow AI ist bewusst an „Shadow IT“ angelehnt, doch er beschreibt ein deutlich größeres Risiko. Shadow IT betrifft klassischerweise nicht genehmigte Software oder Hardware: Ein Team nutzt Trello statt des offiziellen Projektmanagement-Tools, jemand speichert Dateien in einer privaten Dropbox statt auf dem Unternehmensserver. Das ist ärgerlich, aber in der Regel überschaubar und mit etablierten Erkennungsstrategien kontrollierbar.

Shadow AI geht in mehrfacher Hinsicht weiter. KI-Tools verarbeiten Daten aktiv, oft hochsensible. Wenn ein Mitarbeitender eine Kunden-E-Mail in ChatGPT einfügt, um sie professioneller zu formulieren, passiert technisch Folgendes: Der gesamte Text verlässt das Unternehmensnetzwerk, wird auf externen Servern des KI-Anbieters verarbeitet und kann dort potenziell gespeichert oder sogar für das Training zukünftiger KI-Modelle verwendet werden. Das bedeutet: Jede einzelne Eingabe in ein externes KI-Tool ist potenziell eine unkontrollierte Datenübermittlung an Dritte – ohne Auftragsverarbeitungsvertrag (AVV), ohne Datenschutzfolgenabschätzung, ohne jede Protokollierung.

Hinzu kommt: Shadow IT erfordert oft ein gewisses technisches Know-how. Shadow AI dagegen passiert in Sekunden, direkt im Browser, von jedem Arbeitsplatz aus. Die Einstiegshürde ist praktisch null, was die Kontrolle für Sicherheitsteams enorm erschwert. Während sich klassische Schatten-IT über Netzwerk-Scans und Software-Inventare relativ zuverlässig aufspüren lässt, hinterlässt Shadow AI in vielen Fällen keinerlei Spuren in den internen Systemen. Es gibt keine Logs, keine Installationen, keine auffälligen Downloads; nur einen Browser-Tab, der sich jederzeit schließen lässt.

Warum ist Shadow AI in Unternehmen so verbreitet?

Die schnelle Verbreitung von Shadow AI hat weniger mit Nachlässigkeit der Mitarbeitenden zu tun als mit strukturellen Lücken in vielen Organisationen.

Der wichtigste Treiber ist die sofortige Verfügbarkeit leistungsfähiger KI-Tools. ChatGPT, Claude, Gemini oder Perplexity sind browserbasiert, erfordern keine Installation und oft nicht einmal eine Bezahlung. Im Vergleich dazu dauern IT-Freigabeprozesse in vielen Unternehmen Wochen oder Monate. Wer morgen eine Präsentation abgeben muss, wartet nicht auf ein Genehmigungsverfahren.

Dazu kommt ein realer Produktivitätsvorteil. Wer einmal erlebt hat, wie ein KI-Tool in Sekunden einen Bericht zusammenfasst, eine E-Mail formuliert oder Daten analysiert, will nicht mehr darauf verzichten. 

Gleichzeitig fehlen in vielen Unternehmen klare Richtlinien für den KI-Einsatz. Eine repräsentative Bitkom-Umfrage unter 604 Unternehmen zeigt: 40 Prozent gehen davon aus, dass Mitarbeitende private KI-Tools für berufliche Zwecke nutzen, doch nur ein Bruchteil hat verbindliche Nutzungsregeln definiert. Wo keine Leitplanken stehen, suchen sich Mitarbeitende ihren eigenen Weg.

Shadow AI ist damit kein Fehlverhalten einzelner Personen. Sie ist ein Symptom fehlender KI-Strategie und fehlender sicherer Alternativen. Und das Problem wächst: Mit der zunehmenden Verbreitung von KI-Agenten, die eigenständig Aufgaben ausführen, Browser-Erweiterungen mit eingebauter KI und KI-Funktionen, die in alltägliche SaaS-Tools integriert werden, verschwimmen die Grenzen zwischen genehmigter und nicht genehmigter KI-Nutzung weiter.

Der Samsung-Vorfall: Was passiert, wenn Shadow AI sichtbar wird?

Der wohl bekannteste Shadow-AI-Vorfall ereignete sich bei Samsung im Frühjahr 2023 und zeigt exemplarisch, wie schnell unkontrollierte KI-Nutzung eskalieren kann.

Nur 20 Tage nach der internen Freigabe von ChatGPT kam es zu drei separaten Datenlecks. Samsung-Ingenieure luden proprietären Quellcode, interne Testprotokolle und Meeting-Notizen in das Sprachmodell hoch. Die Konsequenz: Samsung verbannte ChatGPT und andere KI-Chatbots vollständig für alle Mitarbeitenden. Doch der Schaden war bereits angerichtet. Die hochgeladenen Daten befanden sich auf den Servern von OpenAI und konnten potenziell zum Training zukünftiger Modelle verwendet werden. Für ein Unternehmen, dessen gesamte Marktposition auf technologischem Vorsprung basiert, ein Worst-Case-Szenario.

Samsung ist dabei kein Einzelfall. Laut dem Stanford HAI AI Index Report wurden allein 2024 insgesamt 233 dokumentierte KI-bezogene Sicherheitsvorfälle registriert, viele davon mit direktem Bezug zu unkontrollierter KI-Nutzung in Unternehmen. Der IBM Cost of a Data Breach Report 2025 zeigt zudem: Datenschutzverletzungen, die mit Shadow AI in Verbindung stehen, kosten durchschnittlich 4,63 Millionen US-Dollar – 670.000 Dollar mehr als bei herkömmlichen Vorfällen. Jedes fünfte untersuchte Unternehmen war von einem solchen Vorfall betroffen. Die Lektion aus all dem: Verbote kamen zu spät und lösten das eigentliche Problem nicht.

Welche Risiken entstehen durch Shadow AI?

Die Sicherheitsrisiken von Shadow AI sind vielschichtig und stellen Unternehmen vor Herausforderungen, die weit über klassische IT-Sicherheit hinausgehen. Sie betreffen Datenschutz, Compliance, Qualitätssicherung und den Schutz geistigen Eigentums gleichermaßen.

  • Unkontrollierter Datenabfluss

    Das offensichtlichste und unmittelbarste Risiko: Vertrauliche Unternehmensdaten, Kundenlisten, Finanzzahlen, Quellcode, Strategiepapiere, gelangen auf externe Server, die außerhalb der Kontrolle des Unternehmens liegen. Eine Untersuchung von CybSafe und der National Cybersecurity Alliance zeigt, dass 38 Prozent der Mitarbeitenden vertrauliche Daten mit KI-Plattformen teilen, die keiner Unternehmenskontrolle unterliegen. Ohne Data Loss Prevention (DLP), also Systeme, die den Abfluss sensibler Daten erkennen und verhindern, haben Unternehmen keinerlei Sichtbarkeit darüber, welche Daten ihre Organisation verlassen.

  • DSGVO-Verstöße

    Jede Eingabe personenbezogener Daten in ein externes KI-Tool kann eine Datenverarbeitung im Sinne der DSGVO darstellen. Bei US-amerikanischen Anbietern wie OpenAI ist es darüber hinaus eine Datenübermittlung in ein Drittland, ohne Standardvertragsklauseln, ohne Auftragsverarbeitungsvertrag, ohne Information der Betroffenen. Das sind gleich mehrere DSGVO-Verstöße auf einmal. Die möglichen Bußgelder: bis zu 20 Millionen Euro oder vier Prozent des weltweiten Jahresumsatzes (je nachdem, welcher Betrag höher ist).

  • Compliance-Lücken durch EU AI Act & NIS2

    Mit dem EU AI Act, der seit August 2025 schrittweise in Kraft tritt, verschärft sich die Lage weiter. Das Gesetz verlangt von Unternehmen ein vollständiges Inventar aller genutzten KI-Anwendungen als Grundlage für die Risikoeinstufung. Shadow AI macht genau das unmöglich: Wenn die IT-Abteilung nicht weiß, welche KI-Tools im Einsatz sind, kann sie weder ein Inventar erstellen noch eine Risikobewertung durchführen. Zusätzlich gilt seit Februar 2025 eine KI-Kompetenz-Pflicht: alle Mitarbeitenden, die mit KI arbeiten, müssen entsprechend geschult sein. Auch die NIS2-Richtlinie fordert ein umfassendes Risikomanagement für IT-Sicherheit. Shadow-AI-Tools stellen dabei unbekannte Angriffsvektoren dar, für die im Ernstfall weder Audit-Trails noch Protokollierung existieren.

  • Fehlerhafte Geschäftsentscheidungen

    KI-Modelle halluzinieren, das heißt, sie erzeugen überzeugend formulierte Antworten, die schlicht falsch sind, liefern veraltete Informationen oder erzeugen plausibel klingende, aber inhaltlich fehlerhafte Analysen. Ohne Qualitätskontrolle und Validierung fließen diese Outputs direkt in Geschäftsentscheidungen ein. Ein viel zitiertes Beispiel: Zwei New Yorker Anwälte nutzten ChatGPT für juristische Recherchen, ohne die Ergebnisse zu prüfen. Das KI-Tool lieferte komplett erfundene Gerichtsentscheidungen, was zu einer Strafe von 5.000 US-Dollar und erheblichem Reputationsschaden führte.

  • Verlust von geistigem Eigentum

    Wenn proprietärer Code, Geschäftsgeheimnisse oder Forschungsergebnisse in externe KI-Modelle einfließen, ist das geistige Eigentum potenziell kompromittiert. Anders als bei einem klassischen Datenleck lässt sich dieser Verlust nicht rückgängig machen, die Daten können bereits in die Trainingsbasis des Modells eingeflossen sein.

Warum funktionieren Verbote nicht?

Die naheliegendste Reaktion vieler Unternehmen auf Shadow AI ist ein pauschales Verbot: Keine KI-Tools, keine Ausnahmen. Samsung hat das getan, ebenso zahlreiche Banken, Behörden und Konzerne.

Doch Verbote lösen das Problem nicht, sie verlagern es nur. Studien zeigen, dass Mitarbeitende trotz Verboten weiterhin KI-Tools nutzen. Sie weichen auf private Geräte aus, nutzen Mobilfunkverbindungen statt des Firmennetzwerks oder arbeiten über persönliche Accounts. Das Ergebnis: Die Shadow AI wird noch unsichtbarer, noch schwerer zu kontrollieren und damit noch riskanter.

Der Grund ist nachvollziehbar: KI-Tools liefern echte Produktivitätsgewinne. Ein Verbot, das keine gleichwertige Alternative bietet, wird schlicht ignoriert. Die effektivere Strategie lautet deshalb: Enablement statt Restriktion.

Wie können Unternehmen Shadow AI wirksam steuern?

Statt KI-Nutzung zu verhindern, müssen Unternehmen sie sicher ermöglichen. Dafür braucht es eine Kombination aus Transparenz, Governance, sicheren Alternativen und kontinuierlicher Kontrolle.

Sichtbarkeit herstellen und ein KI-Inventar aufbauen

Der erste Schritt ist die Herstellung von Transparenz. Welche KI-Tools werden tatsächlich genutzt? Technisch lässt sich das über Cloud Access Security Broker (CASB), eine Art Sicherheitsschleuse zwischen Unternehmensnetzwerk und Cloud-Diensten, DLP-Lösungen und Netzwerk-Monitoring erreichen, die KI-bezogenen Datenverkehr identifizieren. Organisatorisch empfiehlt sich eine nicht-bestrafende Mitarbeiterbefragung: Fragen Sie nicht „Nutzen Sie verbotene Tools?“, sondern „Welche Tools helfen Ihnen bei Ihrer täglichen Arbeit?“. Die Erfahrung zeigt, dass Mitarbeitende bei dieser Herangehensweise überraschend offen antworten.

Klare und pragmatische KI-Richtlinien definieren

Unternehmen brauchen eine KI-Nutzungsrichtlinie, die drei Kernfragen beantwortet:

Welche KI-Tools sind für welche Zwecke genehmigt?
Welche Daten dürfen in KI-Tools eingegeben werden und welche auf keinen Fall?
Und welcher Genehmigungsprozess gilt für neue Tools?

Diese Richtlinie muss pragmatisch sein. Eine Seite mit klaren Regeln und konkreten Beispielen ist wirkungsvoller als ein 50-seitiges Policy-Dokument, das niemand liest.

Sichere Alternativen bereitstellen

Der wirksamste Hebel gegen Shadow AI ist ein attraktives offizielles Angebot. Unternehmen sollten ihren Mitarbeitenden KI-Tools zur Verfügung stellen, die in einer kontrollierten Umgebung laufen, etwa über Azure OpenAI Service oder selbst gehostete Modelle. Entscheidend: Die offizielle Lösung muss mindestens so leistungsfähig und so einfach nutzbar sein wie die Shadow-Alternativen. Andernfalls werden Mitarbeitende weiterhin den Weg des geringsten Widerstands gehen.

 

Awareness schaffen statt bestrafen

Schulungen zum Thema KI-Sicherheit sollten praxisnah sein, keine PowerPoint-Pflichtveranstaltungen. Zeigen Sie an echten Beispielen, wie dem Samsung-Fall, was passieren kann, wenn sensible Daten in unkontrollierte KI-Systeme gelangen. Der Fokus sollte auf Sensibilisierung liegen, nicht auf Bestrafung. Eine Blame-Culture führt dazu, dass Mitarbeitende ihre KI-Nutzung nur noch besser verstecken.

Governance als fortlaufenden Prozess etablieren

Shadow AI erfordert kontinuierliche Kontrolle und Governance. Neue KI-Tools erscheinen wöchentlich, Anwendungsfälle entwickeln sich weiter und regulatorische Anforderungen verändern sich. Quartalsweise KI-Audits, regelmäßige Updates des KI-Inventars und laufende Schulungen zur KI-Kompetenz, wie sie der EU AI Act ohnehin fordert, sollten fester Bestandteil der Cybersicherheit jedes Unternehmens werden.

Besonders wichtig für CISOs und Geschäftsführungen: Die NIS2-Richtlinie sieht eine persönliche Haftung des Managements vor, wenn keine angemessenen Maßnahmen für IT-Sicherheit getroffen werden. Shadow AI gehört damit nicht nur auf die Agenda der IT-Abteilung, sondern auf die jedes Board-Meetings.

  • KI-Inventar erstellt

    Überblick über alle genutzten KI-Tools (genehmigt und ungenehmigt)

  • KI-Richtlinie definiert

    Klare Regeln, welche Tools und Daten erlaubt sind

  • Sichere Alternativen bereitgestellt

    Enterprise-KI-Lösung mit Datenschutzgarantien im Einsatz

  • Mitarbeitende geschult

    Praxisnahe Awareness-Trainings zu KI-Risiken durchgeführt

  • Monitoring aktiviert

    CASB, DLP oder Netzwerkanalyse für KI-Datenverkehr eingerichtet

  • Regelmäßige Audits geplant

    Quartalsweise Überprüfung der tatsächlichen KI-Nutzung

  • Governance-Verantwortung geklärt

    Zuständigkeiten für KI-Governance auf Managementebene verankert

Fazit: Shadow AI ist kein Problem, sondern ein Signal

Shadow AI zeigt, dass Mitarbeitende Innovation wollen, bevor die Organisation dafür bereit ist. Wer Shadow AI nur bekämpft, bekämpft Symptome. Wer sie steuert, schafft echte Wettbewerbsvorteile.

Drei Dinge braucht es dafür:

Erstens Transparenz darüber, welche KI-Tools tatsächlich im Einsatz sind.
Zweitens sichere, leistungsfähige Alternativen, die den Arbeitsalltag wirklich erleichtern.
Und drittens eine Governance-Struktur, die Innovation ermöglicht, statt sie zu blockieren.

Mit EU AI Act, NIS2 und DSGVO ist das Zeitfenster für „wir kümmern uns später“ geschlossen. Unternehmen, die jetzt handeln, schützen nicht nur ihre Daten und ihre Compliance; sie schaffen die Grundlage dafür, KI als echten Wettbewerbsvorteil zu nutzen, statt ihr hinterherzulaufen.

FAQ: Häufige Fragen zu Shadow AI

Das muss man gelesen haben?

Behalten Sie ihr Wissen nicht für sich und teilen Sie diesen Beitrag.

Weiterführende Artikel

KI & Automation
11 Feb. 2026 10 Min. Lesezeit

DeepSeek lokal betreiben – Installation & Hardware

DeepSeek lokal betreiben heißt KI ohne Cloud nutzen mit passender Hardware, Modellen, RAG und voller Datensouveränität.

Hendrik Schrandt Jetzt lesen
KI & Automation
06 Feb. 2026 4 Min. Lesezeit

Ollama – Lokale LLMs per CLI & API nutzen

Ollama macht lokale LLMs per CLI und API nutzbar, hält Daten intern und braucht saubere Security gegen Fehlkonfig.

Hendrik Schrandt Jetzt lesen
KI & Automation
06 Feb. 2026 6 Min. Lesezeit

Ollama vs. LM Studio – Lokale KI im Vergleich

Ollama oder LM Studio richtig wählen, betreiben und skalieren mit WebUI, RAG und Governance für Teams.

Hendrik Schrandt Jetzt lesen
KI & Automation
14 Jan. 2026 3 Min. Lesezeit

Claude Cowork – Der KI-Desktop-Agent von Anthropic

Claude Cowork bringt agentische KI mit Dateizugriff, mehr Automatisierung, aber auch neue Governance-Risiken.

Hendrik Schrandt Jetzt lesen
KI & Automation
11 Dez. 2025 13 Min. Lesezeit

Maschinelles Lernen – Grundlagen, Arten & Anwendungen

Maschinelles Lernen zeigt, wie KI aus Daten Muster lernt und Vorhersagen trifft, statt Regeln zu codieren.

Hendrik Schrandt Jetzt lesen
KI & Automation
06 Nov. 2025 10 Min. Lesezeit

Prozessautomatisierung – RPA, Workflows & KI

Prozessautomatisierung ersetzt Routinearbeit durch Workflows und KI, senkt Kosten, beschleunigt Abläufe.

Hendrik Schrandt Jetzt lesen
KI & Automation
06 Nov. 2025 7 Min. Lesezeit

Künstliche Intelligenz – Grundlagen & B2B-Einsatz

KI erklärt: was sie ist, wie sie lernt und wo sie hilft – plus klare Grenzen statt Buzzword-Nebel, wirklich.

Hendrik Schrandt Jetzt lesen
Back to top