KI-Roadmap entwickeln: Die 4-Phasen-Methode für Enterprise AI-Transformation

Eine KI-Roadmap entwickelt man in vier Phasen: (1) Potenzial-Assessment mit Business Case und Datenreife, (2) Use-Case-Auswahl über eine Scoring-Matrix, (3) Pilot mit Fail-Fast-Gates, (4) Skalierung mit MLOps und Governance. Realistischer Zeitrahmen: 12 bis 18 Monate bis zu zwei bis drei produktiv skalierten Use Cases.
Was eine KI-Roadmap wirklich ist — und was sie nicht ist
Eine KI-Roadmap ist ein Fahrplan, der die KI-Ambition eines Unternehmens in eine geordnete Sequenz von Entscheidungen, Meilensteinen und Investitionen übersetzt. Sie ist kein Wunschzettel, keine Tool-Einkaufsliste und kein PowerPoint-Vision-Deck. Sie ist ein Arbeitsdokument, das Prioritäten setzt, Verantwortlichkeiten verteilt und explizit macht, was das Unternehmen zuerst lernen muss, bevor es skaliert.
In der Praxis scheitern die meisten KI-Initiativen nicht an der Technologie. Laut McKinsey State of AI gelingt nur einer Minderheit der Pilotprojekte der Sprung in die Produktion — häufig genannt wird eine Quote von rund 70 Prozent Pilotprojekte, die nie skalieren. Die Ursache ist fast immer strategisch, nicht technisch: fehlender Business Case, falsche Use-Case-Auswahl, unklare Datenverantwortung oder eine Governance, die erst nach dem ersten Modell-Rollout nachgedacht wird.
Eine belastbare Roadmap adressiert genau diese Schwachstellen vor dem ersten Modell-Experiment. Sie beantwortet drei Fragen in ihrer Reihenfolge: Wo liegt das größte Wertpotenzial? Welche Use Cases sind dort realistisch umsetzbar? Und wie bringen wir die erfolgreichen Piloten in den stabilen Produktivbetrieb — compliant, überwachbar und vom Fachbereich getragen?
Typische Missverständnisse, die ADVISORI in Kundenprojekten häufig korrigiert:
- „Wir brauchen zuerst eine KI-Plattform, dann suchen wir die Use Cases." — Falsche Reihenfolge. Plattform-Investitionen ohne bewiesenen Use Case produzieren teure Regale.
- „Wir machen drei Piloten gleichzeitig und schauen, welcher am besten läuft." — Ohne definierte Fail-Fast-Gates wird das zum Dauerzustand, nicht zur Entscheidung.
- „Governance kommt, wenn wir produktiv sind." — Der EU AI Act verlangt Risiko-Einordnung bereits vor Markteintritt. Wer in Phase 3 Governance nachzieht, baut doppelt.
Die 4-Phasen-Methode im Überblick
Die ADVISORI-Methode ordnet KI-Transformation in vier aufeinanderfolgende Phasen mit je eigenem Ziel, Output, Stakeholder-Set und Abbruchkriterium. Jede Phase hat ein definiertes Ende — nicht einen fließenden Übergang, sondern eine Go/No-Go-Entscheidung. So entsteht Führbarkeit in einer Disziplin, in der Hype und Ungeduld die klassischen Risiken sind.
Im Überblick:
- Phase 1 — Potenzial-Assessment (4-8 Wochen): Business Case, Datenreife-Check, strategischer Rahmen. Output: priorisierte Shortlist von 15-25 Use-Case-Kandidaten und Organisations-Reifebild. Stakeholder: Vorstand, CDO/CIO, Fachbereichsleitung.
- Phase 2 — Use-Case-Auswahl (4-6 Wochen): Scoring-Matrix, Portfolio-Sicht, No-Go-Kriterien, AI-Act-Risiko-Vor-Check. Output: zwei bis drei priorisierte Use Cases für den Pilotbetrieb. Stakeholder: Steering Committee, Legal/Compliance, Data Owner.
- Phase 3 — Pilot (12-24 Wochen pro Use Case, parallel): MVP-Scope, Fail-Fast-Gates, Datenintegration, erste Modellversion. Output: validierte oder verworfene Use Cases mit quantifiziertem Business Impact. Stakeholder: Fachbereich, Data Science, IT-Betrieb.
- Phase 4 — Skalierung (6-12 Monate pro Use Case): MLOps-Stack, Betriebsübergabe, Governance-Operating-Model, Change Management. Output: im Regelbetrieb laufendes KI-System mit Monitoring, Fachverantwortung und AI-Act-Dokumentation. Stakeholder: Fachbereich-Owner, Plattform-Team, Compliance.
Ein typisches Unternehmen benötigt vom Kick-off bis zu zwei bis drei skalierten Use Cases realistisch 12 bis 18 Monate. Wer mit weniger plant, unterschätzt Phase 4 systematisch.
Phase 1: Potenzial-Assessment — Business Case, Datenreife, ROI-Modell
Phase 1 schaut nach innen, bevor irgendetwas entwickelt wird. Sie beantwortet drei Fragen: Wo im Geschäftsmodell steckt das nennenswerte Wertpotenzial für KI? Welche Daten sind in welcher Qualität verfügbar? Und welche organisatorischen Voraussetzungen (Skills, Architektur, Governance-Reife) müssen geschaffen werden, bevor KI belastbar operieren kann?
Potenzialanalyse: Strukturiert entlang der Wertschöpfungskette — Sales, Service, Operations, Risk, Finance, HR — werden Hypothesen aufgestellt, wo KI einen messbaren Hebel bewegt. Die Analyse arbeitet mit Benchmark-Daten (Branchenvergleiche, Bitkom-Report, Stanford AI Index) und internen Treibergrößen. Output ist eine Shortlist von 15-25 Kandidaten-Use-Cases, jeweils mit einer ersten ROI-Schätzung in einer plus/minus 50 Prozent Bandbreite.
Datenreife-Check: Für jeden Kandidaten wird geprüft, ob die relevanten Daten existieren, wo sie liegen, wer sie verantwortet und welche Qualität sie haben. Der Check erfasst: Datenvollständigkeit, Historie-Tiefe, Labelverfügbarkeit (bei supervised Use Cases), Zugriffsrechte und DSGVO-Einordnung. Der häufigste Befund: Daten existieren, sind aber nicht integriert — eine Erkenntnis, die den Investitionspfad stark prägt.
Organisations-Reifebild: Parallel wird bewertet, ob das Unternehmen heute die Fähigkeiten zum Betrieb von KI besitzt — Data-Engineering-Kapazität, MLOps-Erfahrung, AI-Governance-Framework, interne Kommunikation. Das Reifebild ist nicht selbstzweckhaft; es bestimmt, wie ambitioniert die ersten Piloten gewählt werden dürfen und welche Begleitinvestitionen parallel laufen müssen.
Abbruchkriterium: Findet Phase 1 weniger als fünf Use Cases mit belastbarem Business Case und ausreichender Datenbasis, ist das Vorhaben nicht bereit für Phase 2. Dann werden zuerst Daten-Grundlagen oder Skills-Aufbau priorisiert — kein Pilot ohne Ergebnispotenzial.
Phase 2: Use-Case-Auswahl — Scoring-Matrix, Portfolio-Sicht, No-Gos
Phase 2 verwandelt die Shortlist aus Phase 1 in zwei bis drei konkrete Piloten. Das entscheidende Werkzeug ist eine Scoring-Matrix, die jeden Kandidaten entlang von drei Dimensionen bewertet: Impact, Machbarkeit und Risiko.
- Impact (Gewicht 40%): Erwarteter EBIT-Beitrag, Kundenwirkung, strategische Differenzierung.
- Machbarkeit (Gewicht 40%): Datenverfügbarkeit, technische Komplexität, Integrationsaufwand, Skill-Fit im Team.
- Risiko (Gewicht 20%): Regulatorisches Risiko (EU AI Act), Reputationsrisiko, Abhängigkeit von Fremdanbietern.
Jede Dimension wird pro Use Case auf einer 1-5-Skala bewertet, gewichtet und summiert. Das Ergebnis ist ein numerisch vergleichbares Ranking — kein Bauchgefühl, aber auch kein deterministischer Automat. Die Matrix zeigt Tendenzen; die finale Auswahl bleibt eine Steering-Committee-Entscheidung.
Portfolio-Sicht: Die zwei bis drei ausgewählten Piloten sollten ein Portfolio bilden, nicht einen Monolithen. Typisch ist eine Mischung aus einem Quick-Win mit kurzem Time-to-Value (z.B. Textklassifikation im Service), einem strategischen Hebel mit mittlerer Komplexität (z.B. Forecasting in der Supply Chain) und optional einem Moonshot mit größerem Lernwert. Diese Mischung sichert Organisation und Vorstand gegen das Totalausfall-Risiko, wenn einer der Piloten scheitert.
No-Go-Kriterien: Unabhängig vom Score fallen Use Cases aus der Auswahl, wenn: (a) die Datenbasis nicht existiert und nicht binnen drei Monaten aufgebaut werden kann, (b) der Use Case klar unter Artikel 5 EU AI Act (verbotene Praktiken) oder ohne Compliance-Pfad unter Annex III (Hochrisiko) fällt, (c) keine klar zuweisbare Fachverantwortung besteht, (d) das erwartete Delta ohne KI bereits durch konventionelle Automatisierung erreichbar ist.
AI-Act-Vor-Check: Vor Phasenabschluss prüft Legal/Compliance jeden verbleibenden Use Case gegen Annex III des AI Act (biometrische Identifikation, kritische Infrastruktur, Bildung, Beschäftigung, Zugang zu Dienstleistungen, Strafrechtspflege, Migration, Justiz, demokratische Prozesse). Trifft einer dieser Bereiche zu, wird der Use Case als High-Risk klassifiziert — er bleibt möglich, aber der Compliance-Aufwand in Phase 4 wächst erheblich und muss im Business Case berücksichtigt sein.
Phase 3: Pilot — MVP-Scope, Fail-Fast-Gates, PoC-Hölle vermeiden
Phase 3 ist die teuerste und politisch heikelste Phase — nicht weil sie besonders komplex wäre, sondern weil Piloten in vielen Unternehmen nicht zu Ende gebracht werden. Sie wandern in Dauerschleifen, werden „interessant" genannt und versickern, ohne dass jemand das Ende ausspricht. Das ist die PoC-Hölle.
Gegenmittel ist ein explizit formulierter Pilot-Plan mit drei Elementen:
- MVP-Scope: Der Pilot adressiert eine eng umgrenzte Teilfrage, nicht den vollen Use Case. Beispiel: statt „KI-gestützte Kreditentscheidung für das gesamte Firmenkundenportfolio" zunächst „KI-Vorschlag für Standard-Kreditentscheidungen unter 250.000 EUR im Segment Handel/DE". Scope-Reduktion ist keine Feigheit, sondern Erkenntnisbeschleunigung.
- Fail-Fast-Gates in definierten Abständen — typisch bei Woche 8, Woche 16 und Woche 24. An jedem Gate prüft das Steering Committee drei Kriterien: Ist der technische Machbarkeitsnachweis erbracht? Zeigt sich das erwartete Werthebel im Pilotmaßstab? Ist der Fachbereich bereit, den Übergang in Phase 4 zu tragen? Bei zwei oder mehr negativen Antworten wird der Pilot beendet, nicht verlängert.
- Definierte Dokumentationstiefe: Bereits im Pilot werden Trainingsdaten-Herkunft, Modellwahl, Bias-Tests und erste Risk-Assessment-Notizen dokumentiert — nicht als Bürokratie, sondern als Basis für die AI-Act-technische Dokumentation in Phase 4. Wer das erst in Phase 4 rekonstruiert, doppelt die Arbeit.
Typischer Pilot-Footprint: ein interdisziplinäres Team von 4-7 Personen (Data Scientist, Data Engineer, Fachexperte, Product Owner, optional UX, optional Legal), 12-24 Wochen Laufzeit, Budget im niedrigen sechsstelligen Bereich je nach Use-Case-Komplexität. Zwei bis drei Piloten laufen parallel — mehr überfordert die Steering-Bandbreite, weniger reduziert den Lerneffekt.
Ergebnis von Phase 3 ist keine fertige KI-Lösung. Es ist eine validierte Hypothese: Der Use Case trägt, der Business Case hält, der Fachbereich ist committed. Oder eben nicht — und das Unternehmen lernt das schnell, nicht nach 18 Monaten Investition.
Phase 4: Skalierung — MLOps, Governance, Change Management
Phase 4 überführt einen erfolgreichen Piloten in den dauerhaften Produktivbetrieb. Sie ist die unterschätzteste Phase — in der Pilot-Begeisterung wird die Kurve der Skalierungsarbeit regelmäßig falsch gezeichnet. Tatsächlich dauert der Sprung vom Pilot zur skalierten Anwendung oft doppelt so lange wie der Pilot selbst, weil drei parallele Arbeitsströme laufen müssen.
MLOps-Stack: Der Pilot lief meist in einer Data-Science-Sandbox. Skalierung verlangt Modell-Versionierung, automatisiertes Retraining, Performance-Monitoring (Accuracy, Drift, Datenqualität), Incident-Response für Modellfehler, klare Release-Prozesse. Typische Komponenten: Feature-Store, Model Registry, Deployment Pipelines, Observability-Stack. Wer hier auf eine einzige Plattform wettet, bindet sich stark an einen Anbieter — eine Entscheidung, die im Business Case sichtbar sein muss.
Governance-Operating-Model: Jede skalierte KI-Anwendung braucht einen klar benannten Fach-Owner, einen technischen Owner, einen Compliance-Owner und eine dokumentierte Eskalationslogik bei Modellfehlern. Für Hochrisiko-Anwendungen unter EU AI Act kommen verpflichtende Elemente hinzu: technische Dokumentation, Logging, menschliche Aufsicht, Risk-Management-System. Wer ein AI-Management-System nach ISO/IEC 42001 betreibt, bekommt genau diesen Rahmen systematisch strukturiert.
Change Management: Die Nutzer des Systems sind jetzt nicht mehr die wohlwollenden Piloten, sondern die Mitarbeiter im Tagesgeschäft. Ihre Akzeptanz entscheidet, ob die Anwendung Wert schafft oder nur läuft. Change Management in Phase 4 heißt: Trainings, Feedback-Schleifen, Rollout in Wellen, transparente Kommunikation der Grenzen des Systems (was es kann, was es nicht kann, wann der Mensch entscheiden muss).
Am Ende von Phase 4 steht nicht nur eine laufende KI-Anwendung, sondern ein reproduzierbarer Weg. Das Unternehmen hat gelernt, wie es KI skaliert — und kann Use Case 4, 5 und 6 schneller durch dieselben vier Phasen führen. Der eigentliche strategische Gewinn ist nicht die einzelne Anwendung, sondern die geübte Organisation.
Typische Fallstricke: Tech-First, Daten-Altlast, Governance-Lücke
Drei Fallstricke sehen wir in Kundenprojekten häufiger als alle anderen zusammen. Sie sind keine Fehler einzelner Teams, sondern systemische Muster, die von Anfang an mitbedacht werden müssen.
1. Die Tech-First-Falle. Das Unternehmen kauft eine KI-Plattform oder signiert einen GPU-Rahmenvertrag, bevor die Use Cases existieren. Argumentation: „Wir müssen bereit sein." Ergebnis: teures Regal, ungenutzte Lizenzen, Data-Science-Kolleg:innen ohne sinnstiftende Arbeit. Gegenmittel: Plattform-Entscheidungen erst nach Phase 2, abgeleitet aus den konkreten Use-Case-Anforderungen.
2. Die Daten-Altlast-Falle. KI wird auf einer Datenlandschaft aufgesetzt, die historisch gewachsen, fragmentiert und schlecht gepflegt ist. Modelle lernen Artefakte, nicht Business-Logik; Drift-Warnungen sind nicht unterscheidbar von normalem Datenrauschen. Gegenmittel: Data-Readiness-Check in Phase 1 mit Investitionsbudget für Grundlagenarbeit, bevor Modelle gebaut werden.
3. Die Governance-Lücke. Nach dem ersten erfolgreichen Pilot wird skaliert, ohne dass ein AI-Governance-Framework steht. Der EU AI Act kommt nach Inverkehrbringen zur Anwendung, und plötzlich muss technische Dokumentation rekonstruiert, Risk-Assessment nachgezogen, menschliche Aufsicht nachträglich verankert werden. Gegenmittel: Governance-Design parallel zu Phase 2, nicht erst zu Phase 4.
Wie lange eine KI-Roadmap realistisch dauert
Vorstände erwarten häufig ROI innerhalb von sechs Monaten. Die ehrliche Antwort: von Kick-off bis zum ersten produktiv skalierten Use Case sind 9 bis 12 Monate realistisch, bis zu zwei bis drei skalierten Use Cases 12 bis 18 Monate. Wer schneller plant, schneidet entweder Phase 1 ab (und wählt falsche Use Cases) oder Phase 4 (und landet in regulatorischen Nachzügleraufwänden).
Die Vergleichsdaten stützen diese Einschätzung. Der Stanford AI Index 2024 zeigt, dass Unternehmen mit erfolgreicher KI-Skalierung im Schnitt 12-18 Monate ab ersten Investitionen bis zum messbaren EBIT-Beitrag benötigen. McKinsey State of AI nennt ähnliche Zeithorizonte; die wenigen Ausreißer nach unten sind fast immer eng umgrenzte Service-Automatisierungen, nicht strategische Anwendungen.
Was beschleunigen kann: bereits reife Datenarchitektur, vorhandene MLOps-Praxis, klare Product-Ownership im Fachbereich, kleine Pilot-Scopes. Was verlangsamt: Plattform-Großprojekte parallel, Re-Organisation während der Roadmap, fehlende Datenverantwortung, Unterschätzung des Change-Management-Aufwands in Phase 4.
Template und Checkliste für Ihre KI-Roadmap
Die folgenden Checklisten lassen sich direkt für einen Roadmap-Workshop adaptieren. Sie ersetzen keine Beratung, strukturieren aber die wichtigsten Entscheidungen je Phase.
Phase-1-Kickoff-Checkliste
- Top-drei strategische Treibergrößen des Unternehmens explizit benannt.
- Mindestens drei Workshops entlang der Wertschöpfungskette mit Fachbereichen durchgeführt.
- Shortlist von 15-25 Use-Case-Kandidaten mit Business-Case-Skizze (plus/minus 50 Prozent).
- Datenreife-Check je Kandidat: Verfügbarkeit, Qualität, Zugriffsrechte, DSGVO-Einordnung.
- Organisations-Reifebild: Skills, MLOps, Governance, Kommunikation.
Phase-2-Scoring-Matrix-Felder
- Impact (1-5): erwarteter EBIT-Beitrag, Kundenwirkung, strategische Differenzierung.
- Machbarkeit (1-5): Datenverfügbarkeit, technische Komplexität, Integration, Skills.
- Risiko (1-5): AI-Act-Einordnung, Reputation, Anbieter-Abhängigkeit.
- No-Go-Flags: verbotene Praxis, fehlende Fachverantwortung, konventionell schneller lösbar.
- Portfolio-Tag: Quick Win / Strategisch / Moonshot.
Phase-3-Fail-Fast-Gates
- Gate bei Woche 8: technischer Machbarkeitsnachweis erbracht?
- Gate bei Woche 16: Werthebel im Pilotmaßstab sichtbar?
- Gate bei Woche 24: Fachbereich committed für Phase 4?
- Definition der Abbruchbedingung (zwei oder mehr Negativantworten).
Phase-4-Skalierungs-Checkliste
- MLOps-Stack produktiv: Model Registry, Monitoring, Retraining, Incident Response.
- Fach-Owner, technischer Owner, Compliance-Owner benannt.
- Technische Dokumentation nach EU-AI-Act-Anforderungen vollständig.
- Change-Management-Plan mit Trainings und Wellen-Rollout.
- KPI-Definition und Reporting-Rhythmus abgestimmt.
EU AI Act und ISO 42001: Wie Compliance in die Roadmap einzieht
Regulierung ist kein Endspiel nach der Skalierung, sondern eine Serie von Gates entlang der vier Phasen. Drei Ankerpunkte genügen, um die Roadmap compliance-fest zu halten.
Annex-III-Self-Check am Ende von Phase 2: Legal/Compliance prüft jeden verbleibenden Use Case gegen die acht Hochrisiko-Kategorien des AI Act. Ein Hochrisiko-Label ist kein Ausschluss, aber ein Signal, dass Phase 3 und 4 substanziell mehr Aufwand tragen werden — und der Business Case entsprechend angepasst werden muss.
Technische-Dokumentations-Disziplin in Phase 3: Trainingsdaten-Herkunft, Modellwahl, Evaluationsmetriken, Bias-Tests und erste Risk-Assessments werden bereits im Pilot dokumentiert. Das ist die Basis der AI-Act-technischen Dokumentation, die bei Inverkehrbringen vorliegen muss.
AI-Management-System in Phase 4: ISO/IEC 42001:2023 bietet ein internationales Rahmenwerk für den dauerhaften Betrieb von KI-Systemen — von der Planung bis zur Außerbetriebnahme. Unternehmen, die ein AI-Management-System nach ISO 42001 aufsetzen, haben den organisatorischen Kern der AI-Act-Compliance systematisch abgedeckt und können das als Zertifizierung signalisieren.
Regulatorische Details sind hier nur angedeutet; für die vertiefte Einordnung dient die ADVISORI-Spezialberatung zum AI Act. Wichtig an dieser Stelle ist die Sequenz: Compliance wird in jeder Phase gleichzeitig mitgebaut, nicht am Ende angeflanscht.
Häufig gestellte Fragen zur KI-Roadmap
Was ist eine KI-Roadmap?
Eine KI-Roadmap ist ein strategischer Fahrplan, der die KI-Ambition eines Unternehmens in eine geordnete Sequenz von Phasen, Entscheidungen und Meilensteinen übersetzt. Sie priorisiert Use Cases, verteilt Verantwortlichkeiten und definiert, welche Voraussetzungen (Daten, Skills, Governance) vor welcher Entwicklungsstufe geschaffen werden müssen. Ziel ist ein reproduzierbarer Weg von der Idee bis zum skalierten Produktivbetrieb.
Wie erstelle ich eine KI-Roadmap in 4 Phasen?
In vier aufeinanderfolgenden Phasen: Phase 1 ist ein Potenzial-Assessment mit Use-Case-Identifikation, Datenreife-Check und Organisationsbild. Phase 2 wählt über eine Scoring-Matrix zwei bis drei Use Cases für den Pilot. Phase 3 führt die Piloten mit engem MVP-Scope und Fail-Fast-Gates durch. Phase 4 skaliert erfolgreiche Piloten mit MLOps, Governance und Change Management in den Regelbetrieb.
Wie lange dauert die Entwicklung einer KI-Roadmap?
Vom Kick-off bis zu zwei bis drei produktiv skalierten Use Cases sind realistisch 12 bis 18 Monate anzusetzen. Phase 1 dauert vier bis acht Wochen, Phase 2 vier bis sechs Wochen, Phase 3 je Pilot zwölf bis 24 Wochen (parallel), Phase 4 je Use Case sechs bis zwölf Monate. Wer deutlich weniger plant, schneidet meist Phase 4 und unterschätzt den Skalierungsaufwand.
Was kostet die Erstellung einer KI-Roadmap?
Die reine Roadmap-Erstellung (Phase 1 und 2) bewegt sich je nach Unternehmensgröße und Tiefe der Analyse im mittleren fünf- bis niedrigen sechsstelligen Euro-Bereich für Beratungsleistung. Die Gesamtinvestition inklusive Phase 3 und 4 hängt massiv von Anzahl und Komplexität der Use Cases ab — typische Enterprise-Projekte liegen im mittleren bis hohen sechsstelligen, größere Transformationen im siebenstelligen Bereich über 18 Monate.
Welche Rolle spielt der EU AI Act in der KI-Roadmap?
Der EU AI Act (Verordnung (EU) 2024/1689) verankert Compliance-Gates in jeder Phase der Roadmap. Am Ende von Phase 2 erfolgt der Annex-III-Self-Check zur Risiko-Klassifikation. In Phase 3 wird die technische Dokumentation bereits im Pilot aufgebaut. In Phase 4 werden Risk-Management-System, menschliche Aufsicht und Logging produktiv verankert — idealerweise eingebettet in ein AI-Management-System nach ISO/IEC 42001.
Was ist der Unterschied zwischen KI-Strategie und KI-Roadmap?
Die KI-Strategie ist die Ziel- und Richtungsaussage: Warum betreibt das Unternehmen KI, welche strategischen Ambitionen verfolgt es, welches Wertversprechen soll entstehen? Die KI-Roadmap übersetzt diese Strategie in eine umsetzbare Sequenz: welche Use Cases zuerst, welche Voraussetzungen, welche Meilensteine, welcher Zeithorizont. Die Strategie beantwortet das Warum und Was, die Roadmap das Wie und Wann.
Wie viele Use Cases sollten in Phase 2 bewertet werden?
In Phase 1 entsteht eine Shortlist von 15 bis 25 Use-Case-Kandidaten. In Phase 2 werden diese über die Scoring-Matrix priorisiert, wobei zwei bis drei für den Pilot in Phase 3 ausgewählt werden. Mehr als drei parallele Piloten überfordern die Steering- und Skills-Kapazität typischer Enterprise-Organisationen; weniger als zwei reduziert den Lerneffekt und erhöht das Totalausfall-Risiko.
Was passiert, wenn ein Pilot in Phase 3 scheitert?
Scheitert ein Pilot an einem Fail-Fast-Gate, wird er kontrolliert beendet, nicht verlängert. Scheitern ist in Phase 3 ausdrücklich eingeplant und zählt nicht als Projektversagen, sondern als Lernergebnis. Entscheidend ist die Dokumentation: Warum wurde das Hypothesenset verworfen, welche Annahmen waren falsch, welche Use Cases rücken aus Phase 1 nach? Das Portfolio-Denken in Phase 2 sichert gegen das Risiko, dass ein einzelnes Scheitern die gesamte Roadmap gefährdet.
Weitere relevante Beiträge
Vertiefen Sie Ihr Wissen mit ausgewählten Artikeln aus der gleichen Themenwelt.

Generative KI im Unternehmen: Vom Pilot zum produktiven Enterprise-Rollout
Generative KI produktiv einführen: die drei Deployment-Muster (Copilot, RAG, Fine-Tuning), fünf Use-Case-Archetypen, Compliance nach EU AI Act und OWASP LLM Top 10, realistische Kosten-Mathematik und das Betriebsmodell, an dem die meisten Pilotprojekte scheitern.

Welche 4 Arten von KI gibt es? Der vollständige Leitfaden
Die 4 Arten künstlicher Intelligenz nach Arend Hintze (2016): Reaktive Maschinen, Limited Memory, Theory of Mind und selbstbewusste KI. Mit Beispielen, Einordnung im EU AI Act und Bezug zum heutigen Unternehmenseinsatz.

Wie wählt man den richtigen KI-Berater? 10 Kriterien für Unternehmen
Wer den falschen KI-Berater wählt, verliert Monate und mittlere sechsstellige Budgets. Dieser Leitfaden bewertet Anbieter anhand von 10 Kriterien — Regulatorik, Methodik, MLOps, Preis, DSGVO — plus RFP-Leitfaden, Red Flags und die Entscheidungsfrage intern vs. extern.
