
Ihr KI-Anbieter wird über Nacht zum Lieferkettenrisiko — Warum AI Governance jetzt Chefsache ist
Montagmorgen, 8:47 Uhr. Ihr CISO ruft an: „Claude ist gesperrt. Das Pentagon hat Anthropic als Sicherheitsrisiko eingestuft — auf einer Stufe mit Huawei und Kaspersky. Lockheed Martin trennt sich bereits. Microsoft prüft."
Ihre Kreditanalyse, Ihr Compliance-Reporting, Ihr internes Wissensmanagement — alles läuft über ein einziges Large Language Model. Und plötzlich ist genau das ein Problem.
Das ist kein Gedankenexperiment. Das ist letzte Woche passiert. Und es betrifft jedes Unternehmen, das KI im Geschäftsbetrieb einsetzt — auch Ihres.
Was passiert ist — und was davon nicht in die Schlagzeilen passt
Am 6. März 2026 hat das US-Verteidigungsministerium Anthropic offiziell als „Supply Chain Risk" eingestuft — eine Designation, die bisher ausschließlich Unternehmen aus feindlichen Staaten vorbehalten war. Die Konsequenz: Jeder Militärdienstleister muss nachweisen, dass er nicht mit Anthropic zusammenarbeitet. Die Wirkung reicht weit über das Pentagon hinaus.
Die Vorgeschichte: Anthropic hatte im Juli 2025 einen Vertrag über 200 Millionen Dollar mit dem Pentagon abgeschlossen. Claude war das erste große KI-Modell in den klassifizierten Netzwerken des US-Militärs. Anthropic hatte dabei zwei rote Linien gezogen: Kein Einsatz für Massenüberwachung amerikanischer Bürger. Kein Einsatz in vollständig autonomen Waffensystemen ohne menschliche Kontrolle.
Das Pentagon wollte diese Einschränkungen streichen — nicht weil es konkret vorhatte, Claude für Überwachung oder autonome Waffen einzusetzen. Sondern weil es das Prinzip ablehnte, dass ein privates Unternehmen dem Militär vorschreiben kann, wofür eine lizenzierte Technologie eingesetzt wird.
Anthropic lehnte ab. CEO Dario Amodei schrieb, sein Unternehmen könne „in gutem Gewissen" nicht einlenken. Trump reagierte auf Truth Social — und erklärte die Firma zur Bedrohung der nationalen Sicherheit. Am selben Abend verkündete OpenAI-CEO Sam Altman, den frei gewordenen Platz übernommen zu haben.
Und hier wird es für europäische Unternehmen relevant: Lockheed Martin kommentierte die Nachricht mit einem Achselzucken. „We expect minimal impacts as Lockheed Martin is not dependent on any single LLM vendor." Das Pentagon hingegen braucht sechs Monate, um Claude zu ersetzen.
Wer nur einen KI-Anbieter hat, hat ein Single Point of Failure. Wer mehrere hat, zuckt bei solchen Nachrichten nur mit der Schulter.
Warum europäische Unternehmen nicht entspannt zuschauen dürfen
Die naheliegende Reaktion: „Betrifft nur Pentagon-Verträge. Wir machen kein Geschäft mit dem US-Militär." Das stimmt juristisch — und greift trotzdem viel zu kurz. Denn der Anthropic-Fall zeigt ein Muster, das sich in drei Szenarien auch auf deutsche Unternehmen übertragen lässt.
Szenario 1: Regulatorischer Schock
Ab August 2026 gelten die Hochrisiko-Pflichten des EU AI Act. Das deutsche KI-MIG setzt die Verordnung in nationales Recht um. Beide Regelwerke können dazu führen, dass KI-Anbieter plötzlich bestimmte Use Cases nicht mehr bedienen dürfen — oder dass ihre Modelle als nicht konform eingestuft werden. Was passiert mit Ihren Prozessen, wenn Ihr einziges LLM über Nacht nicht mehr für Hochrisiko-Anwendungen zugelassen ist?
Szenario 2: Geopolitischer Dominoeffekt
Was passiert, wenn die EU ein chinesisches KI-Modell als Sicherheitsrisiko einstuft? Oder wenn ein US-Modell unter CLOUD-Act-Bedenken gerät — etwa weil US-Behörden auf europäische Kundendaten zugreifen können? Der Anthropic-Fall hat gezeigt: Die Eskalation von „alles normal" zu „Supply Chain Risk" dauert genau eine Woche.
Szenario 3: Geschäftspolitische Risiken
KI-Anbieter ändern ihre Nutzungsbedingungen. Sie schränken Use Cases ein, erhöhen Preise drastisch oder stellen Modellversionen ein. OpenAI hat in der Vergangenheit mehrfach API-Preise und -Bedingungen geändert. Anthropic hat gerade gezeigt, dass ein Anbieter seine eigenen ethischen Leitplanken über Kundenverträge stellen kann — was prinzipiell richtig sein mag, für abhängige Unternehmen aber ein operatives Risiko darstellt.
Chatham House bringt es auf den Punkt: Der Anthropic-Fall ist ein „inflection point where enterprise AI governance, vendor strategy, and national security policy collided." Und dieses Zusammentreffen wird sich wiederholen.
Das Problem hat einen Namen — KI-Vendor-Lock-in
Vendor Lock-in bei KI ist fundamentaler als bei klassischer Cloud-Infrastruktur. Bei Cloud können Sie Container verschieben, Datenbanken migrieren, APIs abstrahieren. Bei KI sieht das anders aus:
Prompts sind modellspezifisch. Ein Prompt der für GPT-4 optimiert ist, liefert auf Claude oder Gemini andere Ergebnisse. Fine-Tuning ist nicht übertragbar. RAG-Pipelines sind auf die Embedding-Modelle eines Anbieters kalibriert. Evaluierungsbenchmarks sind modellabhängig.
Wechselkosten steigen exponentiell mit Integrationstiefe. Wer KI nur für Chat nutzt, kann morgen wechseln. Wer KI in Kreditentscheidungen, Compliance-Prüfungen oder Kundenservice-Workflows integriert hat, braucht Wochen bis Monate — plus Revalidierung, Regulierungsprüfung und Mitarbeiterschulung.
Es gibt keinen Industriestandard für KI-Portabilität. Während Cloud-Workloads über Kubernetes, Terraform und standardisierte APIs weitgehend portabel sind, existiert für LLM-Workflows kein vergleichbares Framework. Jeder Wechsel ist ein Migrationsprojekt.
Der Beweis liefert der Anthropic-Fall selbst: Lockheed Martin — Multi-Vendor-Strategie — kommentiert gelassen. Das Pentagon — tief integriert in Claude — braucht ein halbes Jahr. Der Unterschied ist nicht Technologie. Der Unterschied ist Architektur.
Eine aktuelle Studie zeigt, dass bereits 22,3 Prozent der deutschen Unternehmen aktiv nach europäischen Cloud-Alternativen suchen — getrieben von Souveränitätsbedenken und Kostendruck. Die gleiche Logik gilt für KI-Anbieter, nur mit höherer Dringlichkeit.
Die Lösung: AI Governance als strategisches Framework

AI Governance ist keine Compliance-Checkbox. Es ist ein operatives Steuerungsinstrument, das Ihr Unternehmen vor genau den Risiken schützt, die der Anthropic-Fall offengelegt hat.
Ein belastbares AI-Governance-Framework ruht auf fünf Säulen:
1. Vendor Diversification
Mindestens zwei LLM-Anbieter für geschäftskritische Anwendungen. Kein Prozess darf von einem einzigen Modell abhängen. Die Fallback-Strategie muss dokumentiert, getestet und quartalsweise überprüft werden — nicht als Notfallplan in einer Schublade, sondern als gelebter Prozess.
2. Technische Abstraktionsschicht
Ein LLM-Router oder Orchestrator zwischen Ihren Anwendungen und den Modellen. Prompts werden modellunabhängig formuliert und erst in der Abstraktionsschicht an das jeweilige Modell angepasst. Wenn Anbieter A ausfällt, routet das System automatisch auf Anbieter B — ohne dass Fachbereiche etwas merken.
3. Risikoklassifizierung
Nicht jeder KI-Einsatz hat das gleiche Risikoprofil. Eine Kritikalitätsmatrix zeigt: Welche Prozesse laufen über welches LLM? Was ist die maximale tolerierbare Ausfallzeit? Welche regulatorischen Anforderungen gelten? Prozesse in den Kategorien „hoch" und „kritisch" bekommen zwingend eine Multi-Vendor-Architektur.
4. Exit-Strategie pro Anbieter
Für jeden KI-Anbieter dokumentiert: Maximale Umstellungszeit. Geschätzte Kosten. Verantwortlicher. Vorbereitete Migrationsschritte. Wenn Sie diese Fragen erst beantworten, nachdem der Anbieter zum Problem geworden ist, ist es zu spät — das hat das Pentagon gerade vorgeführt.
5. Regulatorisches Monitoring
EU AI Act, NIS2, branchenspezifische Vorgaben wie DORA (für Finanzdienstleister) und BSI-Anforderungen entwickeln sich laufend weiter. AI Governance muss diese Entwicklungen proaktiv tracken und in die Anbieter-Bewertung einfließen lassen — nicht reaktiv, nachdem der nächste regulatorische Schock kommt.
Der Clou: NIS2 und DORA machen Supply-Chain-Risk-Management bereits zur Pflicht. KI-Anbieter fallen ausdrücklich unter die Lieferkette. Wer seine KI-Anbieter nicht in das bestehende Risikomanagement integriert hat, verstößt möglicherweise schon heute gegen regulatorische Anforderungen — und merkt es erst, wenn es zu spät ist.
Checkliste: 7 Fragen die jeder CIO jetzt beantworten muss
Bevor Sie ein umfassendes AI-Governance-Framework aufsetzen, starten Sie mit diesen sieben Fragen. Wenn Sie mehr als zwei davon nicht beantworten können, haben Sie ein Problem.
1. Auf wie viele LLM-Anbieter verteilt sich unsere KI-Nutzung?
Wenn die Antwort „einen" ist, haben Sie ein Klumpenrisiko.
2. Was passiert, wenn Anbieter X morgen ausfällt?
Nicht theoretisch — konkret. Welche Prozesse stoppen? Wie lange?
3. Sind unsere KI-Workflows modellunabhängig aufgebaut?
Oder sind Prompts, Embeddings und Evaluierungen auf ein einziges Modell optimiert?
4. Haben wir eine Exit-Strategie für jeden KI-Anbieter dokumentiert?
Nicht „wir würden dann halt wechseln", sondern einen konkreten Migrationsplan.
5. Wer ist für AI Governance verantwortlich?
Ein Name. Nicht „wird noch geklärt", nicht „die IT-Abteilung".
6. Erfüllen unsere KI-Verträge die Anforderungen von NIS2 Artikel 21?
Supply-Chain-Risk-Management ist dort Pflicht. KI-Anbieter sind Teil der Lieferkette.
7. Können wir innerhalb von 72 Stunden den KI-Anbieter wechseln?
Lockheed Martin kann es. Das Pentagon nicht. Wo stehen Sie?
Was das konkret für Ihre KI-Strategie bedeutet
Der Anthropic-Fall ist kein isoliertes Ereignis. Er markiert den Beginn einer neuen Phase, in der KI-Anbieter zum geopolitischen und regulatorischen Spielball werden können — genauso wie es Cloud-Anbieter und Halbleiterhersteller bereits sind.
Unternehmen, die jetzt handeln, stehen in zwölf Monaten deutlich besser da:
Multi-LLM-Architektur als Standard — nicht als Nice-to-have, sondern als architektonische Grundentscheidung bei jedem neuen KI-Projekt.
AI Governance Board etablieren — besetzt mit CIO, CISO, Legal und Fachbereichsvertretern. Quartalsweise Sitzung, dokumentierte Beschlüsse.
Quartalsweise KI-Anbieter-Risikoanalyse — analog zum bestehenden IT-Supplier-Review, aber mit KI-spezifischen Kriterien (Modellverfügbarkeit, regulatorische Compliance, geopolitische Risiken).
Integration in bestehendes ISMS — AI Governance ist kein Parallelprozess, sondern eine Erweiterung Ihres ISO-27001-Managementsystems und Ihres NIS2-Frameworks.
Fazit: Lockheed oder Pentagon — wozu gehören Sie?
Am 6. März 2026 hat sich gezeigt, wer vorbereitet war und wer nicht. Lockheed Martin: „Minimal impact." Pentagon: „Brauchen sechs Monate."
Die Frage ist nicht, ob Ihrem KI-Anbieter etwas Ähnliches passiert. Die Frage ist, ob Sie dann zu den Unternehmen gehören, die achselzuckend weitermachen — oder zu denen, die sechs Monate Stillstand einplanen müssen.
AI Governance ist keine Bürokratie. Es ist Ihre Versicherung gegen den nächsten Montagmorgen-Anruf.
---
Über ADVISORI: Wir unterstützen Banken, Versicherungen und Mittelständler beim Aufbau belastbarer AI-Governance-Frameworks — von der Risikoklassifizierung über Multi-LLM-Architekturen bis zur NIS2-konformen Lieferkettensteuerung. [Sprechen Sie mit uns →]
---
Zeitstrahl: Anthropic-Pentagon-Krise
Datum | Ereignis
|---|---|
Juli 2025 | Anthropic schließt $200-Mio-Vertrag mit dem Pentagon. Claude wird in klassifizierten Netzen eingesetzt.
Februar 2026 | Pentagon fordert Streichung der Sicherheitsleitplanken (Massenüberwachung, autonome Waffen).
28. Februar | Deadline. Anthropic lehnt ab. CEO Amodei: „Können in gutem Gewissen nicht einlenken."
1. März | Trump auf Truth Social: Anthropic sei eine „Bedrohung der nationalen Sicherheit."
6. März | Pentagon stuft Anthropic offiziell als Supply Chain Risk ein — auf Stufe mit Huawei/Kaspersky.
6. März | OpenAI springt ein und übernimmt den Pentagon-Deal mit weicheren Bedingungen.
7. März | Anthropic kündigt Klage an. Microsoft trennt militärische von kommerzieller Claude-Nutzung.
Quellen
NPR: „Pentagon labels AI company Anthropic a supply chain risk" (06.03.2026)
Reuters: „US draws up strict new AI guidelines amid Anthropic clash" (07.03.2026)
Reuters: „Anthropic courted the Pentagon. Here's why it walked away" (04.03.2026)
CNBC: „Anthropic and the Pentagon are back at the negotiating table" (05.03.2026)
Chatham House: „Anthropic's feud with the Pentagon reveals the limits of AI governance" (04.03.2026)
Handelsblatt: „Pentagon vs. Anthropic – Der erste große Machtkampf der KI-Ära" (06.03.2026)
📌 Mehr zu AI Governance: AI Governance Beratung