Unsere Expertise in der systematischen Klassifizierung von KI-Systemen gemäß EU AI Act ermöglicht präzise Compliance-Strategien. Von der initialen Kategorisierung bis zur kontinuierlichen Neubewertung - für sichere und konforme KI-Innovation.
Bereit für den nächsten Schritt?
Schnell, einfach und absolut unverbindlich.
Oder kontaktieren Sie uns direkt:










Hochrisiko-KI-Systeme nach Anhang III müssen ab dem 2. August 2026 alle Anforderungen erfüllen. Für Hochrisiko-Systeme in regulierten Produkten (Anhang I) gilt eine verlängerte Frist bis August 2027. Beginnen Sie die Einstufung jetzt.
Jahre Erfahrung
Mitarbeiter
Projekte
Wir verfolgen einen fünfstufigen Prozess, der technische Analyse mit regulatorischem Detailwissen verbindet — von der Systemerfassung bis zur laufenden Governance.
Erfassung aller KI-Systeme und Anwendungsfälle
Systematische Prüfung gegen Art. 5 (Verbote), Art. 6 (Hochrisiko), Art. 50 (Transparenz)
Detailprüfung der Anhang-III-Bereiche und Ausnahmekriterien
Dokumentation der Einstufung mit Audit-Trail
Einrichtung von Trigger-basierter Neubewertung bei Systemänderungen
"Präzise System-Klassifizierung ist der Grundstein für intelligente AI Compliance. Unser strategischer Ansatz transformiert regulatorische Anforderungen in Wettbewerbsvorteile und ermöglicht risikooptimierte Innovation."

Head of Digital Transformation
Expertise & Erfahrung:
11+ Jahre Erfahrung, Studium Angewandte Informatik, Strategische Planung und Leitung von KI-Projekten, Cyber Security, Secure Software Development, AI
Wir bieten Ihnen maßgeschneiderte Lösungen für Ihre digitale Transformation
Vollständige Kategorisierung Ihrer KI-Systeme nach den vier Risikostufen des EU AI Act. Prüfung der Hochrisiko-Kriterien nach Art. 6 inklusive Anhang-I- und Anhang-III-Analyse.
Aufbau eines Frameworks zur laufenden Neubewertung bei Systemänderungen, neuen Anwendungsfällen oder regulatorischen Updates.
Wählen Sie den passenden Bereich für Ihre Anforderungen
Die EU AI Act-Compliance-Anforderungen definieren konkrete Verpflichtungen für verschiedene KI-Systeme. Wir begleiten Sie bei der vollständigen Implementierung aller erforderlichen Maßnahmen zur Einhaltung der neuen europäischen KI-Regulierung.
Die EU AI Act stellt umfangreiche Dokumentationsanforderungen an KI-Systeme. Wir unterstützen Sie bei der systematischen Erfüllung aller Dokumentationspflichten für eine rechtskonforme KI-Entwicklung und -Nutzung.
Artikel 72 EU AI Act verpflichtet Anbieter von Hochrisiko-KI-Systemen zu einem Post-Market-Monitoring-System. Wir unterstützen Sie bei der Implementierung: von der systematischen Datenerfassung über automatische Protokollierung bis zur fristgerechten Vorfallmeldung an die Marktüberwachungsbehörde.
Unsere KI-Risikobewertung unterstützt Sie bei der systematischen Analyse und Klassifizierung Ihrer KI-Systeme gemäß EU AI Act Artikel 9. Vom KI-Inventar über die Risikoanalyse bis zum kontinuierlichen Risikomanagementsystem über den gesamten Lebenszyklus.
Der EU AI Act stuft KI-Systeme in vier Kategorien ein: Unannehmbares Risiko (Art. 5) — verbotene Praktiken wie Social Scoring, manipulative Techniken und biometrische Echtzeit-Fernidentifikation im öffentlichen Raum. Hohes Risiko (Art. 6) — Systeme in regulierten Produkten (Anhang I) oder in acht sensiblen Bereichen (Anhang III) wie Biometrie, kritische Infrastruktur, Beschäftigung oder Strafverfolgung. Begrenztes Risiko (Art. 50) — Systeme mit Transparenzpflichten, etwa Chatbots oder Deepfake-Generatoren. Minimales Risiko — alle übrigen Systeme ohne besondere regulatorische Auflagen.
Artikel
6 definiert zwei Wege: Erstens Systeme, die als Sicherheitskomponente in Produkte nach Anhang I eingebaut sind — z. B. Medizinprodukte, Maschinen oder Aufzüge. Diese erfordern eine Konformitätsbewertung durch Dritte. Zweitens eigenständige Systeme in den acht Bereichen des Anhang III — von Biometrie über Personalmanagement bis Rechtspflege. Ein Anhang-III-System kann von der Hochrisiko-Einstufung ausgenommen werden, wenn es kein erhebliches Risiko für Gesundheit, Sicherheit oder Grundrechte darstellt (Art.
6 Abs. 3).
Anhang III listet acht Hochrisiko-Bereiche: 1) Biometrie — Fernidentifikation und Emotionserkennung. 2) Kritische Infrastruktur — Verkehr, Energie, Wasser, digitale Netze. 3) Bildung und Berufsbildung — Prüfungsbewertung und Zugangsentscheidungen. 4) Beschäftigung — Einstellung, Leistungsbewertung, Aufgabenzuweisung. 5) Zugang zu Dienstleistungen — Kreditwürdigkeit, Versicherung, Notfalldienste. 6) Strafverfolgung — Beweisbewertung, Risikoanalyse. 7) Migration und Grenzschutz — Dokumentenprüfung, Risikoeinschätzung. 8) Rechtspflege und demokratische Prozesse.
Ein Anhang-III-System ist nicht hochriskant, wenn es kein erhebliches Risiko darstellt. Vier Kriterien sprechen für die Ausnahme: Das System führt eine eng begrenzte Verfahrensaufgabe aus. Es verbessert nur das Ergebnis einer abgeschlossenen menschlichen Tätigkeit. Es erkennt Muster, ohne menschliche Bewertung zu ersetzen. Oder es dient lediglich der Vorbereitung einer Bewertung. Wichtig: Profiling-Systeme sind immer Hochrisiko — die Ausnahme gilt für sie nie. Der Anbieter muss die Bewertung vor dem Inverkehrbringen dokumentieren.
Fünf Schritte: 1) Prüfen Sie, ob das System unter die Verbote nach Art.
5 fällt (Social Scoring, manipulative KI, biometrische Massenüberwachung). 2) Prüfen Sie, ob es eine Sicherheitskomponente in einem Produkt nach Anhang I ist. 3) Prüfen Sie, ob der Anwendungsfall unter einen der
8 Anhang-III-Bereiche fällt. 4) Falls ja, prüfen Sie die Ausnahmekriterien nach Art.
6 Abs. 3. 5) Prüfen Sie Transparenzpflichten nach Art.
50 für Systeme mit begrenztem Risiko. Dokumentieren Sie jeden Schritt — die Behörde kann die Bewertung anfordern.
Hochrisiko-Systeme müssen folgende Anforderungen erfüllen: Risikomanagementsystem (Art. 9), Daten-Governance für Trainings- und Testdaten (Art. 10), technische Dokumentation (Art. 11), automatische Protokollierung (Art. 12), Transparenz und Nutzerinformation (Art. 13), menschliche Aufsicht (Art. 14), Genauigkeit, Robustheit und Cybersicherheit (Art. 15). Zusätzlich: Qualitätsmanagementsystem (Art. 17), EU-Konformitätserklärung (Art. 47) und Konformitätsbewertung vor dem Inverkehrbringen.
KI-Modelle mit allgemeinem Verwendungszweck (GPAI) fallen unter Kapitel V des EU AI Act — ein eigenes Regelungsregime neben der Vierstufenklassifizierung. Pflichten: technische Dokumentation, Transparenz gegenüber nachgelagerten Anbietern, Urheberrechts-Compliance und eine Zusammenfassung der Trainingsdaten. GPAI-Modelle mit systemischem Risiko (ab 10^
25 FLOPS) müssen zusätzlich Modellbewertungen, adversariale Tests und Cybersicherheitsmaßnahmen durchführen. Die GPAI-Pflichten gelten ab August 2025.
Entdecken Sie, wie wir Unternehmen bei ihrer digitalen Transformation unterstützen
Bosch
KI-Prozessoptimierung für bessere Produktionseffizienz

Festo
Intelligente Vernetzung für zukunftsfähige Produktionssysteme

Siemens
Smarte Fertigungslösungen für maximale Wertschöpfung

Klöckner & Co
Digitalisierung im Stahlhandel

Ist Ihr Unternehmen bereit für den nächsten Schritt in die digitale Zukunft? Kontaktieren Sie uns für eine persönliche Beratung.
Unsere Kunden vertrauen auf unsere Expertise in digitaler Transformation, Compliance und Risikomanagement
Vereinbaren Sie jetzt ein strategisches Beratungsgespräch mit unseren Experten
30 Minuten • Unverbindlich • Sofort verfügbar
Direkte Hotline für Entscheidungsträger
Strategische Anfragen per E-Mail
Für komplexe Anfragen oder wenn Sie spezifische Informationen vorab übermitteln möchten