KI schützt schneller, trifft härter: Ein Paradox der Informationssicherheit

AI in der Informationssicherheit kann Kosten senken, schafft aber auch neue Risiken
Die Sicherheitslage in Unternehmen wirkt auf den ersten Blick paradox. Einerseits sinken die durchschnittlichen Kosten von Datenschutzverletzungen zum ersten Mal seit fünf Jahren. Andererseits zeigen aktuelle Zahlen, dass neue Risiken entstehen, die viele Organisationen bislang weder technisch noch regulatorisch im Griff haben. Im Zentrum dieser Entwicklung steht künstliche Intelligenz. Nicht nur als Schutzinstrument, sondern zunehmend auch als eigenständiger Risikofaktor.
Der IBM Cost of a Data Breach Report 2025, der auf der Analyse von 600 realen Sicherheitsvorfällen weltweit basiert, kommt zu einem bemerkenswerten Ergebnis: Die globalen durchschnittlichen Kosten eines Datenlecks sind auf 4,44 Millionen US‑Dollar gesunken. Haupttreiber dieser Entwicklung sind verkürzte Erkennungs‑ und Eindämmungszeiten, insbesondere dort, wo Security‑Teams AI‑gestützte Analyse- und Automatisierungsmechanismen einsetzen. Organisationen mit einem umfassenden Einsatz von AI-gestützten Sicherheitslösungen über den gesamten Incident‑Response‑Lifecycle hinweg sparten laut Bericht im Schnitt rund 1,9 Millionen US‑Dollar pro Vorfall und reagierten etwa 80 Tage schneller.
Diese positive Entwicklung hat jedoch eine Kehrseite. Dieselbe Studie zeigt, dass die Einführung von AI‑Systemen in Fachbereichen, Produkten und Geschäftsprozessen deutlich schneller voranschreitet als deren Absicherung und Governance. Genau hier entsteht eine neue, systemische Schwachstelle.
AI als Angriffsfläche und nicht nur als Werkzeug
Der Bericht macht erstmals quantitativ sichtbar, was sich in der Praxis bereits abzeichnet: AI‑Modelle, APIs und AI‑basierte Anwendungen entwickeln sich zu attraktiven Angriffszielen. Zwar gaben „nur“ 13 Prozent der befragten Organisationen an, einen Sicherheitsvorfall erlebt zu haben, der direkt mit AI‑Systemen verbunden war. Doch bei näherer Betrachtung ist diese Zahl hochproblematisch, denn 97 Prozent der Organisationen verfügten über keine adäquate Zugriffskontrollen für ihre AI‑Systeme.
Besonders häufig waren AI‑bezogene Vorfälle Teil von Supply‑Chain‑Angriffen, etwa über kompromittierte SaaS‑Anbieter, Plug‑ins oder externe APIs. Hinzu kommen spezifische Angriffsformen wie Prompt Injection, Model Inversion oder gezielte Datenmanipulation. Die Auswirkungen ähneln klassischen Sicherheitsvorfällen, sind aber in ihrer Reichweite oft größer: Datenkompromittierung über mehrere Systeme hinweg, operative Störungen und langfristige Reputationsschäden.
Der Bericht zeigt damit deutlich: AI ist kein rein internes IT‑Asset mehr, sondern Teil hochgradig vernetzter Ökosysteme und entsprechend exponiert.
Shadow-AI als neuer Kostentreiber
Besonders alarmierend ist die Rolle von sogenannter Shadow-AI. Gemeint ist die Nutzung von AI‑Tools und ‑Funktionen außerhalb genehmigter Prozesse, etwa durch Mitarbeitende die generative KI in ihre tägliche Arbeit integrieren, ohne dass IT, Security oder GRC davon wissen.
Laut Cost of a Data Breach Report 2025 standen 20 Prozent aller untersuchten Datenschutzverletzungen im Zusammenhang mit Shadow-AI. Diese Vorfälle waren signifikant teurer als der Durchschnitt: Organisationen mit hohem Shadow‑AI‑Anteil verzeichneten Mehrkosten von rund 670.000 US‑Dollar pro Vorfall. Gleichzeitig wurden in diesen Szenarien überproportional häufig besonders sensible Daten kompromittiert, allen voran personenbezogene Kundendaten sowie geistiges Eigentum.
Damit verdrängt Shadow-AI etablierte Themen wie den Fachkräftemangel in den Top‑Rängen der kostentreibenden Faktoren. Ein einzelnes unkontrolliertes AI‑System genügt, um Daten über Cloud‑, On‑Premises‑ und hybride Umgebungen hinweg offenzulegen, oft, ohne dass Sicherheitsverantwortliche dies frühzeitig bemerken.
Warum AI-Security ohne Governance scheitert
Ein zentrales Fazit des Berichts lautet, dass technische Sicherheitsmaßnahmen allein nicht ausreichen. Die Mehrheit der analysierten Organisationen war strukturell nicht in der Lage, AI‑Risiken zu steuern. 63 Prozent verfügten über keinerlei AI‑Governance‑Policy, weitere befanden sich noch in der Konzeptionsphase. Selbst dort, wo Richtlinien existierten, fehlten häufig verbindliche Genehmigungsprozesse, regelmäßige Audits oder dedizierte Governance‑Werkzeuge.
Der Grund dafür liegt auch in der Natur der Technologie. AI bringt neue Schutzobjekte mit sich, die klassische Sicherheitsmodelle nicht abbilden: Trainingsdaten, Modelle, Prompts, Outputs sowie zunehmend autonome AI‑Agenten mit eigenen Identitäten und Berechtigungen. Diese Elemente entziehen sich traditionellen Applikations‑, Netzwerk‑ oder Datensicherheitslogiken.
Der Bericht macht deutlich, dass AI-Security und AI-Governance nicht getrennt gedacht werden dürfen. Wo Governance fehlt, steigen nicht nur Sicherheitsrisiken, sondern messbar auch die Kosten von Vorfällen.
Auswirkungen auf Informationssicherheit und GRC
Über den AI‑Kontext hinaus bestätigt der Report mehrere grundsätzliche Trends in der Informationssicherheit. Phishing bleibt der häufigste Angriffsvektor, wird jedoch durch generative AI qualitativ aufgewertet, etwa durch hochgradig personalisierte Inhalte oder Deepfake‑gestützte Social‑Engineering‑Angriffe. Gleichzeitig zählen Lieferketten‑Kompromittierungen weiterhin zu den teuersten und am langsamsten erkannten Angriffsformen.
Für GRC‑Funktionen sind die Ergebnisse besonders relevant. Klassische Governance‑Modelle mit statischen Policies und periodischen Assessments geraten an ihre Grenzen, wenn AI dynamisch, dezentral und teilweise unsichtbar eingesetzt wird. Der Bericht zeigt zudem, dass organisatorische Faktoren eine erhebliche Rolle spielen: Maßnahmen wie Board‑Level‑Oversight, klar definierte Zuständigkeiten und integrierte Governance‑Technologien korrelieren mit niedrigeren Gesamtkosten im Schadensfall.
Das eigentliche Learning
Der Bericht zeichnet ein sehr klares Bild: Künstliche Intelligenz ist zugleich Kostensenker und Risikohebel. Richtig eingesetzt ermöglicht sie schnellere Reaktion, bessere Transparenz und geringere Schäden. Unkontrolliert eingesetzt verschärft sie Sicherheitsvorfälle, erhöht regulatorische Risiken und treibt Kosten erheblich nach oben.
Die entscheidende Herausforderung ist daher nicht die Einführung von AI, sondern ihre Steuerung. Organisationen profitieren nur dann von AI, wenn Sicherheit und Governance nicht hinterherlaufen, sondern integraler Bestandteil jeder AI‑Initiative sind.
Bereit, Ihr Wissen in Aktion umzusetzen?
Dieser Beitrag hat Ihnen Denkanstöße gegeben. Lassen Sie uns gemeinsam den nächsten Schritt gehen und entdecken, wie unsere Expertise im Bereich AI Security Ihr Projekt zum Erfolg führen kann.
Unverbindlich informieren & Potenziale entdecken.
