Die Warnung von Gartner, dass fehlerhaft konfigurierte KI bis 2028 in einem G20-Land die nationale kritische Infrastruktur lahmlegen könnte, sollte nicht als Spekulation abgetan werden. Diese Ankündigung spiegelt vielmehr die strukturelle Realität wider: KI-Systeme werden zunehmend schneller in Energie- und Verkehrsnetze, Gesundheitsplattformen und Finanzdienstleistungen integriert, als Governance-, Identitätskontroll- und Konfigurationsbedingungen heranreifen. Das wahrscheinlichste Ausfallszenario ist deshalb keine außer Kontrolle geratene Superintelligenz, sondern eine fehlerhafte Konfiguration – also menschliches Versagen, das durch Automatisierung und Skalierung noch verstärkt wird. KI-Systeme stützen sich auf komplexe Geflechte aus privilegierten Konten, API-Schlüsseln, Service-Identitäten, Automatisierungsskripten und Drittanbieter-Integrationen. Werden diese Identitäten unzureichend verwaltet, mit zu weitreichenden Berechtigungen ausgestattet oder nicht überwacht, entsteht eine systemische Fragilität.
Aufgrund der beschleunigten Einführung von KI übersteigen nicht-menschliche Identitäten, wie Servicekonten, Automatisierungstokens und KI-Agenten, in vielen Infrastrukturen inzwischen die Anzahl menschlicher Nutzer sehr deutlich und erweitern damit die Risiken erheblich. Diese nicht-menschlichen Identitäten verfügen häufig über dauerhafte Privilegien – und das bei begrenzter Kontrolle. Die Folge: Eine einzelne kompromittierte Kombination aus Zugangsdaten oder eine fehlerhafte Modell-Deployment-Pipeline kann sich kaskadenartig über miteinander verbundene Infrastrukturlandschaften ausbreiten.
Mit der zunehmenden Automatisierung wächst auch der potenzielle Schadensradius, denn KI beseitigt Risiken nicht – sie beschleunigt sie vielmehr, wenn die Schutzmechanismen zu schwach sind. Betreiber kritischer Infrastrukturen müssen durchsetzbare Identitäts-Governance deshalb gleichermaßen auf menschliche wie nicht-menschliche Identitäten anwenden. Zero-Trust-Architekturen, die Durchsetzung des Least-Privilege-Prinzips und die kontinuierliche Überwachung privilegierter Konten müssen auch auf KI-Modelle, Trainingsumgebungen und die Cloud-Infrastruktur ausgeweitet werden.
Der regulatorische Druck nimmt zu – in der EU, im Vereinigten Königreich und in den USA. Rahmenwerke wie die NIS2-Richtlinie, der Digital Operational Resilience Act (DORA) und der EU AI Act nehmen die Geschäftsleitungen der Unternehmen ausdrücklich in die Verantwortung für operative Resilienz und eine sichere Systemgestaltung. KI-Governance ist keine rein technische Frage mehr. Sie ist eine Aufgabe auf Vorstandsebene und eine Frage nationaler Widerstandsfähigkeit.
Sichere Notfall-Eingriffsmechanismen sind in KI-gestützten Operational-Technology-Umgebungen unerlässlich. Allerdings sind solche Eingriffskontrollen nur dann wirksam, wenn Identitätssysteme gehärtet und Zugriffswege streng kontrolliert werden. Ohne einheitliche Transparenz und Kontrolle über privilegierte Zugriffe können Organisationen in einer KI-getriebenen Infrastrukturlandschaft keine glaubwürdige operative Einsatzbereitschaft beanspruchen. Die nationale Resilienz im KI-Zeitalter wird weniger von der Modellraffinesse abhängen als vielmehr von operativer Disziplin. Vorstände und Aufsichtsbehörden sollten die Governance von KI-Konfigurationen deshalb als zentrale Resilienz-Kennzahl behandeln – nicht als technisches Randthema.