
Shadow AI: Warum unkontrollierte KI-Nutzung Ihr größtes Compliance-Risiko ist
Shadow AI: Warum unkontrollierte KI-Nutzung Ihr größtes Compliance-Risiko ist
Stellen Sie sich folgendes Szenario vor: Ein Vertriebsmitarbeiter kopiert eine Kundenliste mit Umsatzdaten in ChatGPT, um personalisierte Angebote zu generieren. Eine Entwicklerin füttert GitHub Copilot mit proprietärem Quellcode. Ein Controller lädt Quartalszahlen in ein KI-Tool hoch, um Prognosen zu erstellen. Keiner dieser Mitarbeitenden handelt böswillig — alle wollen produktiver arbeiten. Doch keines dieser Tools wurde von der IT freigegeben, keines ist datenschutzrechtlich geprüft, keines taucht im KI-Inventar auf.
Willkommen in der Welt der Shadow AI.
Was als Produktivitäts-Hack einzelner Mitarbeitender beginnt, entwickelt sich 2026 zum größten Compliance-Risiko vieler Unternehmen. Denn mit dem EU AI Act, NIS2 und der DSGVO treffen gleich drei regulatorische Rahmenwerke auf eine Realität, in der KI-Nutzung längst schneller wächst als jede Governance-Struktur.
Was ist Shadow AI — und warum ist es mehr als Schatten-IT 2.0?
Shadow AI beschreibt den Einsatz von KI-Tools und -Diensten durch Mitarbeitende ohne Wissen, Genehmigung oder Kontrolle der IT-Abteilung. Der Begriff ist bewusst an „Shadow IT" angelehnt — das Phänomen, dass Mitarbeitende eigenmächtig Cloud-Dienste, Apps oder Hardware nutzen. Doch Shadow AI geht in mehrfacher Hinsicht weiter.
Klassische Schatten-IT betrifft meist Infrastruktur: Ein Team nutzt Trello statt des offiziellen Projektmanagement-Tools, jemand speichert Dateien in einer privaten Dropbox. Ärgerlich, aber in der Regel überschaubar. Shadow AI hingegen verarbeitet aktiv Daten — oft hochsensible. KI-Modelle wie ChatGPT, Google Gemini, Claude oder Midjourney nehmen Eingaben entgegen, verarbeiten sie auf externen Servern und speichern sie potenziell für das Training zukünftiger Modelle. Das bedeutet: Jede Eingabe ist potenziell eine Datenübermittlung an Dritte.
Hinzu kommt die Geschwindigkeit, mit der sich Shadow AI verbreitet. Laut einer Studie von Software AG nutzen 54 Prozent der Wissensarbeiter in Deutschland bereits KI-Systeme ohne offizielle Genehmigung. Global betrachtet zeigt der „2025 State of Shadow AI Report" von Reco, dass in kleinen Unternehmen durchschnittlich 269 nicht genehmigte KI-Tools pro 1.000 Mitarbeitende im Einsatz sind. Eine Untersuchung von CybSafe und der National Cybersecurity Alliance ergab, dass 38 Prozent der Mitarbeitenden vertrauliche Daten mit KI-Plattformen teilen, die außerhalb der Unternehmenskontrolle liegen.
Diese Zahlen machen deutlich: Shadow AI ist kein Randphänomen. Es ist der Normalzustand in den meisten Organisationen.
Der Samsung-Vorfall: Ein Weckruf für jedes Unternehmen
Der wohl bekannteste Shadow-AI-Vorfall ereignete sich bei Samsung im Frühjahr 2023. Innerhalb von nur 20 Tagen nach der internen Freigabe von ChatGPT kam es zu drei separaten Datenlecks. Samsung-Ingenieure luden proprietären Quellcode, interne Testprotokolle und sogar Meeting-Notizen in das Sprachmodell hoch — in der Absicht, ihre Arbeit effizienter zu erledigen.
Die Konsequenz: Samsung verbot ChatGPT und andere KI-Chatbots für alle Mitarbeitenden. Doch der Schaden war bereits angerichtet. Die hochgeladenen Daten befanden sich auf OpenAIs Servern und konnten potenziell zum Training künftiger Modelle verwendet werden. Für ein Unternehmen, dessen Marktposition auf technologischem Vorsprung basiert, ein Worst-Case-Szenario.
Der Samsung-Fall ist dabei kein Einzelfall, sondern exemplarisch. Laut dem Stanford HAI AI Index Report wurden allein 2024 insgesamt 233 dokumentierte KI-bezogene Sicherheitsvorfälle registriert — viele davon mit Bezug zu unkontrollierter KI-Nutzung. Und laut IBMs „2025 Cost of a Data Breach Report" kosten Datenschutzverletzungen, die mit Shadow AI in Verbindung stehen, durchschnittlich 4,63 Millionen US-Dollar — das sind 670.000 Dollar mehr als bei herkömmlichen Vorfällen.
Warum Shadow AI jetzt zum Compliance-Problem wird
Bis vor kurzem war Shadow AI vor allem ein IT-Sicherheitsthema. Doch mit der Regulierungswelle 2026 aus EU AI Act, NIS2, DORA und CRA wird es zu einem handfesten Compliance-Risiko — mit potenziell existenzbedrohenden Konsequenzen.
EU AI Act: Ohne KI-Inventar keine Compliance
Der EU AI Act, der seit August 2025 schrittweise in Kraft tritt, verlangt von Unternehmen, die KI-Systeme einsetzen, ein vollständiges Inventar aller genutzten KI-Anwendungen. Dieses Inventar ist die Grundlage für die Risikoeinstufung: Verbotene Praktiken, Hochrisiko-Systeme, begrenzt riskante und minimal riskante Anwendungen müssen identifiziert und entsprechend behandelt werden.
Shadow AI macht genau das unmöglich. Wenn die IT-Abteilung nicht weiß, welche KI-Tools im Einsatz sind, kann sie weder ein Inventar erstellen noch eine Risikobewertung durchführen. Das Ergebnis: Das Unternehmen verstößt gegen die Grundanforderungen des EU AI Act, ohne es zu merken.
Besonders kritisch wird es bei Hochrisiko-Anwendungen. Wird ein KI-Tool beispielsweise im Recruiting eingesetzt — etwa um Bewerbungen vorzufiltern — gelten strenge Anforderungen an Transparenz, menschliche Aufsicht und Dokumentation. Nutzt ein HR-Mitarbeiter dafür ein nicht genehmigtes KI-Tool, befindet sich das Unternehmen in der Illegalität.
Darüber hinaus fordert der EU AI Act seit Februar 2025 eine KI-Kompetenz-Pflicht: Alle Mitarbeitenden, die mit KI arbeiten, müssen über entsprechende Schulungen verfügen. Ohne Kenntnis der tatsächlichen KI-Nutzung ist auch diese Anforderung nicht erfüllbar.
NIS2: Shadow AI als unkontrolliertes Risiko
Die NIS2-Richtlinie, die seit Dezember 2025 in nationales Recht umgesetzt wird, fordert von betroffenen Unternehmen ein umfassendes Risikomanagement für IT-Sicherheit. Dazu gehören die Identifikation aller relevanten Risiken, die Implementierung angemessener Sicherheitsmaßnahmen und die Fähigkeit, bei Vorfällen schnell zu reagieren.
Shadow AI untergräbt jeden dieser Punkte. Nicht genehmigte KI-Tools stellen unbekannte Angriffsvektoren dar. Daten fließen über unkontrollierte Kanäle ab. Im Falle eines Vorfalls fehlen Audit-Trails und Protokolle. Und die geforderte Meldepflicht bei Sicherheitsvorfällen — innerhalb von 24 Stunden — lässt sich kaum einhalten, wenn das Unternehmen nicht einmal weiß, wo die Daten verarbeitet werden.
Wie ADVISORI bereits im Kontext von NIS2 und KI-Governance dargelegt hat, sind KI-Risiken integraler Bestandteil des NIS2-Risikomanagements. Shadow AI ist dabei der blinde Fleck, der das gesamte Risikomanagement aushebelt.
DSGVO: Datenübermittlung ohne Rechtsgrundlage
Jede Eingabe in ein externes KI-Tool ist potenziell eine Datenverarbeitung im Sinne der DSGVO — und bei US-amerikanischen Anbietern eine Datenübermittlung in ein Drittland. Ohne angemessene Schutzmaßnahmen (Standardvertragsklauseln, Binding Corporate Rules oder Angemessenheitsbeschluss) ist diese Übermittlung rechtswidrig.
Wenn ein Mitarbeiter Kundendaten, Mitarbeiterdaten oder andere personenbezogene Informationen in ChatGPT eingibt, verarbeitet OpenAI diese Daten auf Servern, die dem US-Recht unterliegen. Es gibt keinen Auftragsverarbeitungsvertrag, keine Datenschutzfolgenabschätzung, keine Information der Betroffenen. Das sind gleich mehrere DSGVO-Verstöße auf einmal.
Die möglichen Bußgelder: bis zu 20 Millionen Euro oder 4 Prozent des weltweiten Jahresumsatzes. Doch der Reputationsschaden kann noch gravierender sein.
Die fünf größten Shadow-AI-Risiken im Überblick
1. Unkontrollierter Datenabfluss
Das offensichtlichste Risiko: Vertrauliche Informationen — Kundendaten, Finanzzahlen, Quellcode, Strategiepapiere — gelangen in die Hände externer KI-Anbieter. Ohne Data Loss Prevention (DLP) für KI-Kanäle haben Unternehmen keinerlei Kontrolle darüber, welche Daten die Organisation verlassen.
2. Compliance-Verstöße ohne Kenntnis
Shadow AI führt zu Verstößen gegen EU AI Act, NIS2 und DSGVO, die dem Management nicht einmal bekannt sind. Die Geschäftsführung haftet dennoch — NIS2 sieht eine persönliche Haftung des Managements vor.
3. Verlust von geistigem Eigentum
Wenn proprietärer Code, Geschäftsgeheimnisse oder Forschungsergebnisse in KI-Modelle einfließen, ist das geistige Eigentum potenziell kompromittiert. Der Samsung-Fall zeigt, wie schnell das passieren kann.
4. Fehlerhafte Geschäftsentscheidungen
KI-generierte Analysen und Empfehlungen, die auf nicht validierten Modellen basieren, können zu Fehlentscheidungen führen. Ohne Qualitätskontrolle und Validierung der Outputs entstehen Risiken, die von der Falschberatung eines Kunden bis hin zu fehlerhaften Finanzprognosen reichen.
5. Angriffsflächen für Cyberkriminelle
Shadow-AI-Tools erweitern die Angriffsfläche eines Unternehmens erheblich. Nicht geprüfte Browser-Erweiterungen, ungesicherte API-Verbindungen und unkontrollierte Datenflüsse bieten Angreifern neue Einfallstore. Zudem können Cyberkriminelle die über Shadow AI abgeflossenen Daten nutzen, um hochgradig personalisierte Phishing-Angriffe zu konstruieren.
Warum Verbote nicht funktionieren
Die erste Reaktion vieler Unternehmen auf Shadow AI ist ein pauschales Verbot: „KI-Tools sind ab sofort nicht gestattet." Samsung hat das getan, ebenso wie zahlreiche Banken, Behörden und Konzerne.
Doch Verbote lösen das Problem nicht — sie verlagern es nur. Studien zeigen, dass Mitarbeitende trotz Verboten weiterhin KI-Tools nutzen, dann aber auf privaten Geräten, über private Netzwerke oder über Umwege, die noch schwerer zu kontrollieren sind. Das Ergebnis: Die Shadow AI wird noch unsichtbarer.
Der Grund ist nachvollziehbar: KI-Tools bieten echte Produktivitätsgewinne. Wer einmal erlebt hat, wie ChatGPT in Sekunden einen Bericht zusammenfasst, eine E-Mail formuliert oder Daten analysiert, will nicht mehr darauf verzichten. Ein Verbot, das keine Alternative bietet, wird schlicht ignoriert.
Die bessere Strategie: Enablement statt Verbot. Unternehmen, die ihren Mitarbeitenden sichere, genehmigte KI-Alternativen zur Verfügung stellen und klare Nutzungsrichtlinien definieren, reduzieren Shadow AI weitaus effektiver als solche, die auf Restriktion setzen.
Der Weg zur Shadow-AI-Kontrolle: Ein Fünf-Stufen-Modell
Stufe 1: Sichtbarkeit herstellen — das KI-Inventar
Der erste und wichtigste Schritt ist die Herstellung von Transparenz. Welche KI-Tools werden in Ihrem Unternehmen tatsächlich genutzt? Diese Frage lässt sich nur durch eine Kombination aus technischen und organisatorischen Maßnahmen beantworten.
Technisch: Nutzen Sie Cloud Access Security Broker (CASB), DLP-Lösungen und Netzwerk-Monitoring, um KI-bezogenen Datenverkehr zu identifizieren. Analysieren Sie SaaS-Nutzungsdaten, Browser-Erweiterungen und API-Aufrufe. Moderne Tools können KI-Dienste automatisch erkennen und kategorisieren.
Organisatorisch: Führen Sie anonymisierte Mitarbeiterbefragungen durch. Fragen Sie nicht: „Nutzen Sie verbotene Tools?" Fragen Sie: „Welche Tools helfen Ihnen bei Ihrer Arbeit?" Die Erfahrung zeigt, dass Mitarbeitende bei einer nicht-bestrafenden Herangehensweise überraschend offen antworten.
Das Ergebnis ist ein vollständiges KI-Inventar — die Grundlage für jede weitere Maßnahme und gleichzeitig die Erfüllung einer zentralen EU-AI-Act-Anforderung.
Stufe 2: Risikobewertung durchführen
Nicht jede Shadow-AI-Nutzung ist gleich riskant. Ein Mitarbeiter, der ChatGPT nutzt, um eine Geburtstagsrede zu formulieren, stellt ein anderes Risiko dar als einer, der Kundendaten hochlädt. Bewerten Sie jede identifizierte Nutzung nach:
- Datensensitivität: Werden personenbezogene Daten, Geschäftsgeheimnisse oder regulierte Informationen verarbeitet?
- Regulatorische Relevanz: Fällt die Nutzung unter den EU AI Act (insbesondere Hochrisiko-Kategorien)?
- Anbieter-Risiko: Wo werden die Daten verarbeitet? Gibt es einen AVV? Wie steht es um die Datenschutzpraktiken des Anbieters?
- Geschäftsrisiko: Welche Konsequenzen hätte ein Datenleck oder eine Fehlentscheidung?
Stufe 3: KI-Richtlinien und Governance etablieren
Auf Basis der Risikobewertung entwickeln Sie eine KI-Nutzungsrichtlinie, die klar definiert:
- Welche KI-Tools sind für welche Zwecke genehmigt?
- Welche Daten dürfen in KI-Tools eingegeben werden — und welche nicht?
- Welche Genehmigungsprozesse gelten für neue KI-Tools?
- Wie werden KI-generierte Outputs validiert und dokumentiert?
- Welche Schulungen sind Pflicht?
Diese Richtlinie sollte pragmatisch sein. Eine 50-seitige Policy, die niemand liest, verfehlt ihren Zweck. Besser: kurze, klare Regeln mit konkreten Beispielen, ergänzt durch eine leicht zugängliche Liste genehmigter Tools.
Stufe 4: Sichere Alternativen bereitstellen
Der effektivste Hebel gegen Shadow AI ist ein attraktives offizielles Angebot. Unternehmen sollten ihren Mitarbeitenden KI-Tools bereitstellen, die:
- In einer kontrollierten Umgebung laufen (z. B. Azure OpenAI Service, selbst gehostete Modelle)
- Vertragliche Datenschutzgarantien bieten (AVV, EU-Datenverarbeitung)
- In das KI-Inventar und Monitoring integriert sind
- Mindestens so leistungsfähig sind wie die Shadow-Alternativen
Der Aufbau einer solchen unternehmenseigenen KI-Plattform ist eine Investition, die sich mehrfach auszahlt: durch Produktivitätsgewinne, Risikoreduktion und Compliance-Konformität. Plattformen wie ki.advisori.de zeigen, wie das in der Praxis aussehen kann.
Stufe 5: Kontinuierliches Monitoring und Governance
Shadow AI ist kein einmaliges Projekt, sondern ein fortlaufender Prozess. Neue KI-Tools erscheinen wöchentlich, Mitarbeitende entdecken neue Anwendungsfälle, regulatorische Anforderungen entwickeln sich weiter. Etablieren Sie deshalb:
- Regelmäßige Scans der genutzten SaaS-Dienste und Netzwerkverkehr
- Quartalsweise Updates des KI-Inventars
- Laufende Schulungen zur KI-Kompetenz (EU AI Act-Pflicht)
- Einen KI-Governance-Prozess für die Bewertung und Freigabe neuer Tools
- KPIs und Reporting für das Management
Die Rolle des Managements: Persönliche Haftung als Motivator
Ein Aspekt, der in vielen Unternehmen noch zu wenig Beachtung findet: Die Geschäftsführung haftet persönlich für die Einhaltung der NIS2-Anforderungen. Wenn ein Shadow-AI-bedingter Sicherheitsvorfall eintritt und das Management keine angemessenen Maßnahmen ergriffen hat, drohen neben Unternehmensbußgeldern auch persönliche Konsequenzen für Geschäftsführer und Vorstände.
Das bedeutet: Shadow AI gehört auf die Agenda jedes Board-Meetings. Es reicht nicht, das Thema an die IT-Abteilung zu delegieren. CISOs, CDOs und IT-Leiter brauchen ein klares Mandat — und die notwendigen Ressourcen —, um Shadow AI effektiv zu adressieren.
Shadow AI im Mittelstand: Besonders gefährdet, besonders betroffen
Während Konzerne zunehmend dedizierte AI-Governance-Teams aufbauen, trifft Shadow AI den Mittelstand besonders hart. Die Gründe:
Weniger Ressourcen: Mittelständische Unternehmen verfügen selten über spezialisierte KI-Governance-Expertise. Die IT-Abteilung ist oft schon mit dem Tagesgeschäft ausgelastet.
Höhere relative Nutzung: Der Reco-Report zeigt, dass kleinere Unternehmen proportional mehr Shadow-AI-Tools pro Mitarbeiter aufweisen als Großkonzerne — bei gleichzeitig geringeren Monitoring-Kapazitäten.
Regulatorische Komplexität: EU AI Act, NIS2, DSGVO — die regulatorische Landschaft überfordert viele Mittelständler. Die Schnittmenge dieser Regulierungen zu verstehen und operativ umzusetzen, erfordert Expertise, die intern oft nicht vorhanden ist.
Know-how-Abhängigkeit: Gerade produzierende Mittelständler, deren Marktposition auf technischem Know-how basiert, riskieren durch Shadow AI den Abfluss ihrer wertvollsten Ressource.
Hier kann externe Beratung den entscheidenden Unterschied machen. Eine spezialisierte AI-Governance-Beratung hilft, die regulatorischen Anforderungen zu verstehen, ein pragmatisches Governance-Framework aufzubauen und die richtigen technischen und organisatorischen Maßnahmen zu implementieren.
Praxistipps: Sofortmaßnahmen gegen Shadow AI
Sie müssen nicht auf das perfekte Governance-Framework warten. Diese Maßnahmen können Sie sofort umsetzen:
1. Quick-Scan durchführen: Analysieren Sie Ihren Netzwerkverkehr auf Verbindungen zu bekannten KI-Diensten (api.openai.com, bard.google.com, claude.ai, etc.). Das gibt Ihnen einen ersten Überblick über das Ausmaß der Shadow-AI-Nutzung.
2. Sensibilisierungskampagne starten: Informieren Sie Ihre Mitarbeitenden über die Risiken — ohne zu moralisieren. Zeigen Sie den Samsung-Fall. Erklären Sie, warum das Unternehmen nicht gegen KI ist, sondern für sichere KI-Nutzung.
3. „Erlaubte KI"-Liste erstellen: Definieren Sie eine Positivliste von KI-Tools, die für bestimmte Anwendungsfälle genutzt werden dürfen. Das ist besser als eine endlose Verbotsliste.
4. Datenklassifizierung einführen: Definieren Sie klar, welche Datenkategorien unter keinen Umständen in externe KI-Tools eingegeben werden dürfen: personenbezogene Daten, Geschäftsgeheimnisse, regulierte Informationen, Finanzdaten vor Veröffentlichung.
5. KI-Ansprechpartner benennen: Benennen Sie eine Person oder ein Team als Ansprechpartner für KI-bezogene Fragen. Mitarbeitende, die wissen, wo sie fragen können, nutzen seltener unkontrollierte Tools.
6. Vertragsprüfung anstoßen: Prüfen Sie die Nutzungsbedingungen und Datenschutzrichtlinien der bereits genutzten KI-Tools. Wo liegen die Daten? Werden sie für Training verwendet? Gibt es einen AVV?
Der strategische Blick: Shadow AI als Chance
So paradox es klingt: Shadow AI zeigt Ihnen, wo die Produktivitätspotenziale in Ihrem Unternehmen liegen. Wenn Mitarbeitende eigeninitiativ KI-Tools nutzen, tun sie das, weil sie einen konkreten Nutzen sehen. Diese Anwendungsfälle sind wertvolle Hinweise für Ihre KI-Strategie.
Statt Shadow AI nur als Bedrohung zu betrachten, sollten Unternehmen sie als Innovationsindikator nutzen. Welche Abteilungen experimentieren mit KI? Für welche Aufgaben? Welche Tools werden bevorzugt? Diese Informationen fließen direkt in die Entwicklung einer unternehmensweiten KI-Strategie ein.
Der Schlüssel liegt in der Balance: Innovation ermöglichen, Risiken kontrollieren, Compliance sicherstellen. Das ist exakt die Herausforderung, die AI Governance adressiert.
Fazit: Handeln Sie jetzt — bevor der Regulator es tut
Shadow AI ist kein hypothetisches Zukunftsszenario. Es ist die Realität in über 80 Prozent der Unternehmen — auch in Ihrem. Jeden Tag fließen vertrauliche Daten in unkontrollierte KI-Systeme, jeden Tag wächst das Compliance-Risiko.
Mit dem EU AI Act, NIS2 und einer verschärften DSGVO-Durchsetzung steigen die Konsequenzen dramatisch an. Bußgelder in Millionenhöhe, persönliche Managementhaftung und irreparabler Reputationsschaden sind keine theoretischen Risiken mehr — sie sind die logische Folge von Untätigkeit.
Die gute Nachricht: Shadow AI lässt sich kontrollieren. Nicht durch Verbote, sondern durch kluge Governance, sichere Alternativen und eine Unternehmenskultur, die verantwortungsvolle KI-Nutzung fördert. Der erste Schritt ist Sichtbarkeit. Der zweite ist Handlung.
Warten Sie nicht auf den ersten Vorfall. Handeln Sie proaktiv.
Nächster Schritt: Shadow AI in den Griff bekommen
Sie möchten wissen, wie groß Ihr Shadow-AI-Risiko ist — und wie Sie es kontrollieren können? Unsere Experten analysieren Ihre aktuelle Situation, identifizieren Handlungsfelder und entwickeln einen pragmatischen Maßnahmenplan.
Kontaktieren Sie uns unverbindlich!
📖 Lesen Sie auch: KI Testing & Strategie: Wenn KI-Modelle wissen, dass sie bewertet werden - Roadmap inkl. + Paper zum Download
📖 Lesen Sie auch: KI Testing & Strategie: Wenn KI-Modelle wissen, dass sie bewertet werden - Roadmap inkl. + Paper zum Download