
Googles KI findet kritische Chrome-Schwachstelle: Ein Durchbruch in der Cybersicherheit
Googles KI findet kritische Chrome Zero-Day-Schwachstelle - Ein Durchbruch in der Cybersicherheit
Ein KI-Tool von Google hat eigenständig eine kritische Zero Day Sicherheitslücke im weltweit meistgenutzten Browser, Google Chrome, aufgespürt.
Die Nachricht vom 27. August 2025 war kurz, aber ihre Bedeutung ist enorm. Googles KI-Agent, von Forschern bei DeepMind und Project Zero als „Big Sleep“ bezeichnet, entdeckte eine Schwachstelle mit dem Namen „Use-after-free in ANGLE“. Die Lücke war so schwerwiegend, dass ein Angreifer durch eine speziell manipulierte HTML-Seite Daten korrumpieren und schädlichen Code ausführen konnte. Für Millionen von Nutzern wäre das ein echtes Problem gewesen.
Aber Google hat schnell reagiert. Ein dringendes Update (Versionen 139.0.7258.154/155) für Windows und Mac wurde veröffentlicht, und die Version für Linux wird ebenfalls ausgerollt.
Das technische Detail: Was genau bedeutet „Use-after-free“?

Um zu verstehen, warum die Entdeckung von „Big Sleep“ so wichtig ist, muss man die technische Seite der Schwachstelle kennen. Ein „Use-after-free“ (UAF)-Fehler ist ein kritischer Programmierfehler, der oft in Sprachen wie C oder C++ auftritt. Er entsteht, wenn ein Programm versucht, auf einen Speicherbereich zuzugreifen, der bereits vom Betriebssystem freigegeben wurde.
Normalerweise wird Speicher dynamisch zugewiesen und wieder freigegeben. Ein Zeiger zeigt auf eine bestimmte Speicheradresse. Wenn ein Programmierer den Speicher nicht mehr braucht, gibt er ihn frei. Der UAF-Fehler passiert, wenn ein Zeiger auch nach der Freigabe des Speichers noch existiert und das Programm versucht, ihn zu benutzen.
Das ist gefährlich, weil dieser Speicherbereich vom Betriebssystem neu vergeben werden kann. Wenn der alte Zeiger dann verwendet wird, kann das zu unvorhersehbaren Problemen führen. Im besten Fall stürzt das Programm ab. Im schlimmsten Fall kann ein Angreifer den freigegebenen Speicher mit eigenem Code überschreiben. Wenn das Programm dann den Zeiger benutzt, wird der bösartige Code ausgeführt. Bei einem Browser wie Chrome, der ständig mit Webseiten umgeht, ist das Risiko für die Ausführung von schädlichem Code (Remote Code Execution, RCE) riesig.
Googles KI: Ein neuer Wächter im digitalen Raum
Dass eine KI diesen Fehler und nicht ein menschlicher Experte gefunden hat, ist das eigentlich Faszinierende. „Big Sleep“ ist keine einfache Software zur Suche nach bekannten Bedrohungen. Die KI nutzt maschinelles Lernen, um Code selbstständig zu analysieren und komplexe, oft versteckte Muster zu erkennen, die auf Schwachstellen hindeuten.
Die Ergebnisse der KI sind beeindruckend. Sandra Joyce von Google Threat Intelligence bestätigte, dass die KI ihre Erwartungen übertroffen hat. „Big Sleep“ hat schon letztes Jahr eine Lücke in der weit verbreiteten Software SQLite gefunden und Angreifer daran gehindert, diese auszunutzen. Dieser Erfolg, zusammen mit der jüngsten Entdeckung in Chrome, deutet auf eine neue Ära in der Schwachstellenforschung hin. Autonome Systeme können Millionen von Codezeilen in einem Bruchteil der Zeit durchforsten, die ein Mensch benötigen würde, und dabei Fehler finden, die so subtil sind, dass sie der menschlichen Analyse entgehen.
KI im Kampf gegen Cyberkriminalität: Eine neue Frontlinie
Die Rolle der KI in der Cybersicherheit geht weit über die reine Schwachstellensuche hinaus. Sie macht die gesamte Branche von einer reaktiven zu einer proaktiven Disziplin. Hier sind einige der wichtigsten Einsatzgebiete:
- Proaktive Bedrohungserkennung: KI-Systeme können Verhaltensmuster im Netzwerkverkehr analysieren und Anomalien erkennen, die auf eine Bedrohung hindeuten. Ein Mensch würde dafür Tage oder Wochen brauchen, eine KI kann das in Echtzeit.
- Vorhersage von Angriffen: Mit Predictive Analytics kann KI historische Angriffsdaten auswerten, um zukünftige Angriffsmethoden vorherzusagen. So können Unternehmen ihre Verteidigung optimieren, bevor ein Angriff überhaupt stattfindet.
- Vulnerability Management: Es werden täglich so viele Schwachstellen entdeckt, dass es für menschliche Sicherheitsteams unmöglich ist, alle zu beheben. KI kann diese Lücken priorisieren, indem sie die Wahrscheinlichkeit der Ausnutzung, den potenziellen Schaden und die Kritikalität des betroffenen Systems bewertet.
- Automatisierte Reaktion: Im Falle eines Angriffs kann KI eine schnelle, automatisierte Reaktion auslösen, um den Schaden zu minimieren. Dazu gehören das Isolieren betroffener Systeme, das Blockieren von schädlichen IP-Adressen und das Patchen von Schwachstellen in Sekundenschnelle.
Die Zukunft: Zusammenarbeit von Mensch und Maschine
Trotz dieser Fortschritte wird KI menschliche Experten nicht ersetzen, sondern ihre Fähigkeiten erweitern. Cybersicherheitsexperten werden sich von der reinen Datensammlung hin zu strategischen, kreativen und verwaltenden Aufgaben entwickeln. Sie werden die KI-Systeme überwachen, ihre Ergebnisse interpretieren und die wichtigen Entscheidungen treffen.
Die menschliche Intuition, das Urteilsvermögen und die Fähigkeit, über den Tellerrand hinauszuschauen, bleiben unersetzlich. KI erkennt zwar Muster, aber sie versteht nicht den breiteren Kontext oder die menschliche Motivation hinter einem Angriff. Angreifer passen ihre Taktiken ständig an. Die Zusammenarbeit zwischen der analytischen Kraft der KI und der strategischen Weitsicht des Menschen wird der Schlüssel zur Sicherheit in der digitalen Zukunft sein.
Fazit: Eine neue Hoffnung
Die Entdeckung der Chrome-Schwachstelle durch Googles KI ist mehr als nur ein technologischer Meilenstein. Sie ist ein Weckruf, der uns zeigt, wie zerbrechlich unsere digitale Welt ist, und gleichzeitig eine neue Hoffnung, die uns zeigt, wie wir sie schützen können. In einer Zeit, in der KI von Angreifern und Verteidigern genutzt wird, müssen wir die Entwicklung von defensiven KI-Systemen vorantreiben.
Die Zusammenarbeit zwischen den führenden Technologieunternehmen wie Google und der gesamten Cybersicherheits-Community ist entscheidend, um die Vorteile der KI zu nutzen und Risiken zu minimieren. Die Zukunft der Cybersicherheit wird nicht von Maschinen allein gestaltet, sondern von den Menschen, die sie entwickeln und einsetzen, um eine sicherere, widerstandsfähigere digitale Welt für uns alle zu schaffen.
Weitere relevante Beiträge
AI‑Modell‑Governance im Alltag: Wie MaRisk, EBA, EGIM und BCBS 239 den AI‑Act für Hochrisiko‑AI vorstrukturieren
Banken verfügen mit MaRisk, EBA‑Guidelines, EGIM und BCBS 239 bereits über ein robustes Fundament für Modell‑ und Daten‑Governance. Der EU-AI-Act baut auf diesen Strukturen auf und ergänzt sie gezielt um AI‑spezifische Anforderungen für Hochrisiko‑AI‑Systeme, insbesondere im Kreditscoring natürlicher Personen. Anstatt eine parallele „AI‑Governance‑Welt“ aufzubauen, können Institute Hochrisiko‑AI in ihr bestehendes Modell‑Framework integrieren und dieses risikobasiert erweitern.Konkret heißt das: Modellinventar, Rollen, Validierung und Gremienstrukturen aus MaRisk/EBA/EGIM lassen sich nutzen, um AI‑Act‑Kontrollen wie lebenszyklusbezogenes Risikomanagement, Human‑Oversight‑Konzepte sowie technische Dokumentation und Logging zu verankern. BCBS‑239‑orientierte Datenarchitekturen bilden die Basis für AI‑Trainings‑, Validierungs‑ und Testdaten; neu hinzu kommen Fairness‑ und Bias‑Analysen sowie Grundrechts‑ und Diskriminierungsbewertungen.Der AI-Act ist damit weder ein kompletter Neustart noch ein reines „Paperwork‑Upgrade“. Er verlangt zusätzliche inhaltliche Fähigkeiten – etwa bei Datenethik, Fairness‑Messung und technischer Dokumentation – lässt sich aber effizient im bestehenden Governance‑Rahmen verorten. Ein pragmatisches Zielbild lautet daher: ein gemeinsames Framework für alle Modelle, risikobasiert erweitert für Hochrisiko‑AI.
EU AI-Act im Finanzsektor: AI im bestehenden IKS verankern – statt einer Parallelwelt aufzubauen
Der EU-AI-Act ist für Banken weniger ein radikaler Bruch als eine AI‑spezifische Erweiterung des bestehenden internen Kontrollsystems (IKS). Statt neue Parallelstrukturen aufzubauen, geht es darum, Hochrisiko‑AI‑Anwendungen sauber in Governance, Risikomanagement, Kontrollen und Dokumentation zu integrieren.
Der KI-gestützte vCISO: Wie Unternehmen Governance-Lücken strukturiert schließen
NIS-2 verpflichtet Unternehmen zu nachweisbarer Informationssicherheit.Der KI-gestützte vCISO bietet einen strukturierten Weg: Ein 10-Module-Framework deckt alle relevanten Governance-Bereiche ab – von Asset-Management bis Awareness.
Bereit, Ihr Wissen in Aktion umzusetzen?
Dieser Beitrag hat Ihnen Denkanstöße gegeben. Lassen Sie uns gemeinsam den nächsten Schritt gehen und entdecken, wie unsere Expertise im Bereich Beratung KI-Sicherheit Ihr Projekt zum Erfolg führen kann.
Unverbindlich informieren & Potenziale entdecken.