Welche 4 Arten von KI gibt es? Der vollständige Leitfaden

Boris Friedrich
Boris FriedrichCEO
12 min read
Welche 4 Arten von KI gibt es? Der vollständige Leitfaden

Die vier Arten künstlicher Intelligenz nach Arend Hintze (2016) sind: (1) Reaktive Maschinen wie Deep Blue ohne Gedächtnis, (2) Limited Memory KI wie heutige LLMs und autonome Fahrzeuge, (3) Theory of Mind KI mit sozialem Verständnis (noch Forschung) und (4) selbstbewusste KI (rein theoretisch).

Woher die Klassifikation der 4 KI-Arten stammt

Die Einteilung in vier Arten künstlicher Intelligenz geht auf einen 2016 im wissenschaftlichen Online-Magazin The Conversation veröffentlichten Beitrag des KI-Forschers Arend Hintze (damals Michigan State University) zurück. Hintze ordnete KI-Systeme nicht nach Anwendungsfeld, sondern nach kognitiver Tiefe: Was kann das System wissen, erinnern, verstehen und über sich selbst reflektieren?

Diese funktionale Taxonomie ist seither zum De-facto-Standard in der populären und betrieblichen KI-Literatur geworden. Sie ergänzt die klassische Dreiteilung aus dem Standardlehrbuch Artificial Intelligence: A Modern Approach von Russell und Norvig (schwache KI, starke KI, Superintelligenz) um eine präzisere Stufung dessen, was heute in Unternehmen tatsächlich läuft — versus dem, was Science-Fiction bleibt.

Entscheidend für Entscheidungsträger: Die vier Arten sind keine Marketing-Kategorien, sondern eine ingenieurwissenschaftliche Ordnung. Wer KI im Unternehmen einsetzt, bewegt sich heute fast ausschließlich in Art 1 und Art 2. Art 3 und 4 sind Forschungsthesen, keine Produkte.

Art 1: Reaktive Maschinen (Reactive Machines)

Reaktive Maschinen sind die elementarste Form künstlicher Intelligenz. Sie reagieren auf einen definierten Input mit einem deterministischen Output — ohne Gedächtnis, ohne Kontext aus früheren Interaktionen, ohne Lernfähigkeit zur Laufzeit.

Lehrbuchbeispiel: Deep Blue, der IBM-Schachcomputer, der 1997 Weltmeister Garri Kasparow schlug. Deep Blue analysierte für jede aktuelle Brettstellung Millionen möglicher Züge und wählte den statistisch besten — ohne sich an vorherige Partien zu erinnern oder Kasparows Spielstil zu internalisieren.

Im Unternehmenseinsatz findet sich dieser Typ in regelbasierten Expertensystemen, einfachen Empfehlungsalgorithmen, statischen Chatbots (FAQ-Bots ohne Verlauf), klassischen Anti-Spam-Filtern und Bildklassifikatoren, die jedes Bild unabhängig bewerten. Reaktive KI ist robust, nachvollziehbar und regulatorisch unkompliziert — sie ist auch der Typ, der am häufigsten unter dem Begriff „KI" verkauft wird, obwohl es sich technisch um regelbasierte Automatisierung handelt.

Art 2: KI mit begrenztem Gedächtnis (Limited Memory)

Limited-Memory-Systeme können zeitlich begrenzte Daten aus der jüngeren Vergangenheit berücksichtigen und ihre Reaktion darauf stützen. Sie lernen aus historischen Trainingsdaten und halten im Betrieb einen Kontext vor — aber dieses Gedächtnis ist technisch umgrenzt: es endet mit dem Trainingsdatenschluss oder mit der Kontextlänge einer laufenden Sitzung.

Prägendes Beispiel heute: Große Sprachmodelle (LLMs) wie GPT-4, Claude oder Gemini. Ein LLM „weiß" alles aus seinem Trainingskorpus und kann innerhalb eines Prompts einen Kontext von Zehntausenden Tokens halten — aber vergisst diesen Kontext, sobald die Sitzung endet.

Weitere zentrale Vertreter: autonome Fahrzeuge (die Sensordaten der letzten Sekunden interpretieren, um die nächste Fahrentscheidung zu treffen), Fraud-Detection-Systeme in Banken, Recommender-Engines (Netflix, Amazon), Predictive-Maintenance-Modelle in der Industrie, Computer-Vision-Systeme in der medizinischen Bildgebung und fast alle generativen KI-Anwendungen.

Wer heute im Unternehmen von „KI-Projekten" spricht, meint in 90 Prozent aller Fälle Art 2. Das ist die einzige heute wirtschaftlich nutzbare Stufe mit echter Lernfähigkeit — und entsprechend der Fokus praktisch jeder KI-Regulierung.

Art 3: Theory of Mind KI (noch in der Forschung)

Theory of Mind (ToM) ist ein Begriff aus der Entwicklungspsychologie: die Fähigkeit, zu modellieren, dass andere Wesen eigene Überzeugungen, Wünsche und Emotionen haben, die sich von den eigenen unterscheiden. Ein Kind entwickelt diese Fähigkeit typischerweise zwischen drei und fünf Jahren. Eine ToM-KI wäre entsprechend ein System, das nicht nur Input verarbeitet, sondern versteht, was ihr Gegenüber glaubt, fühlt oder beabsichtigt — und ihr eigenes Verhalten daran ausrichtet.

An dieser Stelle ist intellektuelle Ehrlichkeit entscheidend: Moderne LLMs wirken in Gesprächen oft empathisch, erkennen scheinbar Stimmungen und passen den Ton an. Das ist jedoch kein genuines mentales Modell des Gegenübers, sondern statistisches Musterabgleich-Lernen aus Trainingsdaten. Aktuelle Forschung (z.B. Kosinski 2023 an der Stanford GSB) deutet darauf hin, dass LLMs auf klassischen ToM-Tests Leistungen zeigen, die mit Vorschulkindern vergleichbar sind — ob das echte Theory of Mind ist oder ein sprachliches Emulationsartefakt, ist in der Fachwelt umstritten.

Für den Unternehmenseinsatz: Theory of Mind KI ist heute kein Produkt, das Sie einkaufen können. Wer Ihnen „empathische KI" verkauft, meint fast immer ein LLM mit gutem Prompt-Engineering — also Art 2 mit einer Konversations-Fassade.

Art 4: Selbstbewusste KI (rein theoretisch)

Die vierte und höchste Stufe der Taxonomie beschreibt Systeme, die nicht nur das Innenleben anderer modellieren, sondern ein Modell ihrer selbst haben — Bewusstsein, Selbstwahrnehmung, subjektive Erfahrung. Eine selbstbewusste KI wäre nicht nur intelligent im Sinne von Problemlösefähigkeit, sondern im philosophischen Sinne ein Subjekt.

Diese Stufe existiert bislang weder experimentell noch theoretisch in wissenschaftlich belastbarer Form. Sie ist Gegenstand philosophischer Debatten (was ist Bewusstsein? — das sogenannte „hard problem" nach David Chalmers), nicht der Ingenieurwissenschaft. Der Großteil der KI-Forschungscommunity hält selbstbewusste Maschinen für ein Jahrzehnte- oder Jahrhundertprojekt, wenn überhaupt erreichbar.

Regulatorisch ist Art 4 dennoch interessant: Die Diskussion um Rechte, Verantwortlichkeit und moralischen Status künstlicher Subjekte findet bereits statt, unter anderem in Ethikkommissionen der EU. Für operative Entscheidungen im Unternehmen ist das jedoch ein Thema für den Horizont, nicht für das laufende Budget.

Alternative Taxonomie: ANI, AGI und ASI

Neben der Vier-Arten-Einteilung nach Hintze existiert eine zweite, häufig zitierte Taxonomie nach Fähigkeitsbreite:

  • Artificial Narrow Intelligence (ANI, „schwache KI"): Systeme, die eine eng umgrenzte Aufgabe auf menschlichem oder übermenschlichem Niveau lösen — Schach, Bildklassifikation, Sprachübersetzung. Deckt grob Art 1 und Art 2.
  • Artificial General Intelligence (AGI, „starke KI"): Systeme, die beliebige intellektuelle Aufgaben auf menschlichem Niveau beherrschen, domänenübergreifend lernen und Wissen transferieren. Überschneidet sich mit Art 3.
  • Artificial Super Intelligence (ASI): Systeme, die die menschliche kognitive Leistung in allen Domänen deutlich übertreffen. Überschneidet sich mit Art 4.

Die beiden Taxonomien sind nicht identisch, aber komplementär: Hintze gliedert nach kognitiver Tiefe (was das System innerlich tut), ANI/AGI/ASI gliedert nach Aufgabenbreite (wie viele Domänen es abdeckt). Für die Einordnung konkreter Systeme im Unternehmen ist Hintzes Taxonomie meist praktischer.

Wie die 4 KI-Arten zum EU AI Act passen

Der EU AI Act (Verordnung (EU) 2024/1689) reguliert KI nicht nach kognitiver Tiefe, sondern nach Risiko des konkreten Einsatzes. Er unterscheidet vier Risikoklassen: inakzeptables Risiko (verboten), hohes Risiko (streng reguliert), begrenztes Risiko (Transparenzpflichten) und minimales Risiko (frei). Die Hintze-Arten und die AI-Act-Risikoklassen überlagern sich wie folgt:

  • Art 1 Reaktive Maschinen fallen meist in minimales oder begrenztes Risiko, außer sie werden in Hochrisiko-Anwendungsfeldern eingesetzt (z.B. Bonitätsprüfung, Strafrechtspflege).
  • Art 2 Limited Memory KI deckt das gesamte Risikospektrum ab — vom harmlosen Empfehlungssystem bis zum Hochrisiko-Kreditscoring, biometrischer Fernidentifikation oder KI in kritischer Infrastruktur. Hier liegt der ganze operative Schwerpunkt der AI-Act-Compliance.
  • Art 3 Theory of Mind ist im AI Act nicht gesondert adressiert, weil es keine Produkte gibt. Manche Forscher argumentieren, dass einige General-Purpose-AI-Modelle (GPAI) bereits Grenzfälle aufwerfen — und GPAI wird seit August 2025 gesondert reguliert.
  • Art 4 Selbstbewusste KI ist im AI Act nicht reguliert, weil sie nicht existiert. Die EU-Ethikrichtlinien sprechen das Thema philosophisch an, ohne rechtliche Folgen.

Wo heutige Unternehmens-KI wirklich steht

In der Praxis operiert über 90 Prozent aller produktiv eingesetzten KI in Unternehmen in Art 1 und Art 2. Ein paar typische Einordnungen:

  • Bonitätsscoring in Banken: Art 2, Limited Memory (lernt aus historischen Ausfallmustern) — AI-Act-Hochrisiko.
  • Chatbot im Kundenservice mit LLM-Backend: Art 2 — begrenztes Risiko (Transparenzpflicht, dass es KI ist).
  • Spam-Filter: Art 1 oder Art 2 je nach Implementation — minimales Risiko.
  • Predictive Maintenance in der Fertigung: Art 2 — meist minimales Risiko.
  • Robo-Advisory in der Vermögensverwaltung: Art 2 — begrenztes bis hohes Risiko.
  • KI-gestützte Diagnoseunterstützung in der Medizin: Art 2 — Hochrisiko unter AI Act und MDR.

Diese Realitätsprüfung ist wichtig, wenn KI-Budgets verhandelt werden. Investitionen in „AGI-ready"-Infrastruktur auf Basis vermeintlich anstehender Art-3/4-Systeme sind heute unbegründet. Investitionen in Governance, Datenqualität und Limited-Memory-Anwendungen amortisieren sich dagegen messbar.

Was das für Ihre KI-Governance bedeutet

Wer die vier Arten versteht, kann pragmatische Entscheidungen treffen statt auf Sci-Fi-Narrative zu reagieren. Drei konkrete Konsequenzen für die Governance:

  1. Inventarisieren Sie Ihre KI-Systeme nach Art und Risiko. Die überwiegende Mehrheit wird Art 2 sein — was die Compliance-Arbeit fokussiert: Trainingsdatenqualität, Modellüberwachung, menschliche Aufsicht und Nachvollziehbarkeit.
  2. Trennen Sie Produktmarketing von Produktrealität. Wenn ein Anbieter „kognitive" oder „bewusste" KI verkauft, ist das in 2026 immer noch Marketing. Fordern Sie technische Dokumentation, die die tatsächliche Systemklasse offenlegt.
  3. Bereiten Sie sich auf schrittweise Regulierung vor. Der AI Act reguliert heute primär Art-1- und Art-2-Systeme. Sobald GPAI-Fähigkeiten in Richtung Art 3 tendieren, wird die Regulierung folgen — nicht umgekehrt.

Genau an dieser Schnittstelle — Technologieeinschätzung, Risikoklassifikation und regulatorische Umsetzung — setzt professionelle KI-Beratung an: nicht, um Hype zu verkaufen, sondern um Systeme realistisch einzuordnen und sauber zu betreiben.

Häufig gestellte Fragen zu den 4 Arten von KI

Wie viele Arten von KI gibt es?

Die geläufigste Klassifikation nach Arend Hintze (2016) unterscheidet vier Arten: Reaktive Maschinen, Limited Memory KI, Theory of Mind KI und selbstbewusste KI. Daneben existiert die Einteilung nach Fähigkeitsbreite in ANI (schwach), AGI (stark) und ASI (Superintelligenz). Beide Taxonomien sind komplementär.

Welche 4 Arten von KI gibt es einfach erklärt?

Art 1 reagiert nur auf den Input (Deep Blue). Art 2 nutzt ein begrenztes Gedächtnis der jüngeren Vergangenheit (ChatGPT, autonome Fahrzeuge). Art 3 würde verstehen, was andere denken und fühlen (existiert nicht als Produkt). Art 4 hätte ein Modell ihrer selbst — Bewusstsein (rein theoretisch).

Zu welcher KI-Art gehört ChatGPT?

ChatGPT ist ein Limited-Memory-System, also Art 2. Das Modell wurde auf einem umfangreichen Trainingskorpus trainiert und hält während einer Sitzung einen Kontext von Zehntausenden Tokens — vergisst diesen aber mit dem Sitzungsende. ChatGPT hat keine echte Theory of Mind und kein Selbstbewusstsein, auch wenn die Konversation das gelegentlich suggeriert.

Was ist der Unterschied zwischen schwacher und starker KI?

Schwache KI (ANI) löst eng umgrenzte Aufgaben auf hohem Niveau — Bildklassifikation, Übersetzung, Schach. Starke KI (AGI) wäre ein System mit menschenähnlicher, domänenübergreifender Intelligenz, das beliebige Aufgaben lernen und transferieren kann. Heute existiert nur schwache KI; starke KI ist Forschungshypothese.

Welche KI-Arten existieren heute wirklich?

Nur Art 1 (reaktive Maschinen) und Art 2 (Limited Memory KI) existieren als produktive Systeme. Art 3 (Theory of Mind) ist Forschungsfeld ohne ausgereifte Anwendungen, Art 4 (selbstbewusste KI) existiert weder experimentell noch theoretisch in einer ingenieurwissenschaftlich belastbaren Form.

Wie passen die 4 KI-Arten zum EU AI Act?

Der AI Act reguliert nach Risiko des Einsatzes, nicht nach kognitiver Tiefe. Art 1 und 2 decken das gesamte Risikospektrum ab — der gesamte operative Fokus der AI-Act-Compliance liegt daher auf Limited-Memory-Systemen. Art 3 und 4 sind im AI Act nicht reguliert, weil sie nicht als Produkte existieren.

Was ist der Unterschied zwischen Limited Memory und Theory of Mind?

Limited Memory KI nutzt vergangene Daten, um bessere Vorhersagen zu treffen — sie modelliert Muster. Theory of Mind KI würde darüber hinaus verstehen, dass andere Wesen eigene Überzeugungen und Absichten haben, und ihr Verhalten daran ausrichten. Der Unterschied ist: Mustererkennung in Daten versus Modellierung mentaler Zustände.

Wird es jemals selbstbewusste KI geben?

Das ist wissenschaftlich offen. Die Mehrheit der KI-Forschungscommunity hält selbstbewusste Maschinen für ein Jahrzehnte- oder Jahrhundertprojekt, wenn überhaupt erreichbar. Das Problem ist weniger Rechenleistung als ungelöste philosophische Fragen zum Wesen des Bewusstseins. Für die Unternehmensstrategie ist Art 4 kein Planungshorizont.

Hat ihnen der Beitrag gefallen? Teilen Sie es mit:
Boris Friedrich

Boris Friedrich

CEO, ADVISORI FTC GmbH

Lesenswert

Vertiefen Sie Ihr Wissen mit ausgewählten Artikeln aus der gleichen Themenwelt.

Ihr strategischer Erfolg beginnt hier

Unsere Kunden vertrauen auf unsere Expertise in digitaler Transformation, Compliance und Risikomanagement

Bereit für den nächsten Schritt?

Vereinbaren Sie jetzt ein strategisches Beratungsgespräch mit unseren Experten

30 Minuten • Unverbindlich • Sofort verfügbar

Zur optimalen Vorbereitung Ihres Strategiegesprächs:

Ihre strategischen Ziele und Herausforderungen
Gewünschte Geschäftsergebnisse und ROI-Erwartungen
Aktuelle Compliance- und Risikosituation
Stakeholder und Entscheidungsträger im Projekt

Bevorzugen Sie direkten Kontakt?

Direkte Hotline für Entscheidungsträger

Strategische Anfragen per E-Mail

Detaillierte Projektanfrage

Für komplexe Anfragen oder wenn Sie spezifische Informationen vorab übermitteln möchten