Die KI-Strategie der NATO, die von den Verteidigungsministern der Alliierten im Oktober 2021 verabschiedet wurde, hat den Rahmen des Bündnisses für die verantwortungsvolle KI-Einführung im gesamten Spektrum militärischer und ziviler Operationen festgelegt. Obwohl die Strategie selbst ein hochrangiges Politikdokument ist, hat sie eine Reihe konkreter Anforderungen und Erwartungen generiert, die sich direkt in Beschaffungskriterien für KI-fähige Verteidigungssoftware übersetzen. Das Verständnis dieser Anforderungen ist für Softwareanbieter, die KI-Fähigkeiten auf dem NATO-Markt verkaufen wollen, keine optionale Angelegenheit — es ist eine Basisqualifikationsvoraussetzung.
Die Strategie hat sich seit 2021 weiterentwickelt. Das Strategische Konzept 2022 hat KI als prioritären Technologiebereich bekräftigt. Das DIANA-Programm hat die Prinzipien der Strategie in seine Bewertungskriterien integriert. Und einzelne NATO-Mitgliedstaaten übersetzen die Prinzipien auf Bündnisebene in nationale Beschaffungsanforderungen.
NATO-KI-Strategie: Sechs Prinzipien verantwortungsvoller KI
Der Kern der NATO-KI-Strategie ist ein Satz von sechs Prinzipien für den verantwortungsvollen Einsatz von KI in der Verteidigung. Diese Prinzipien wurden in Übereinstimmung mit den OECD-KI-Prinzipien entwickelt.
Gesetzmäßigkeit: KI-Anwendungen müssen gemäß nationalem und internationalem Recht entwickelt und verwendet werden. Für Softwareanbieter bedeutet dies, dass KI-Systeme für den operativen Militäreinsatz mit expliziten Einschränkungen gestaltet sein müssen, die rechtswidrige Verwendungen verhindern.
Verantwortung und Rechenschaftspflicht: Es muss eine klare und eindeutige Rechenschaftspflicht für KI-Systeme geben. Dieses Prinzip erfordert eine klare Rückverfolgbarkeit von KI-Systemausgaben zu den menschlichen Entscheidungsträgern.
Erklärbarkeit und Rückverfolgbarkeit: KI-Anwendungen müssen in einer dem Kontext ihrer Verwendung angemessenen Weise verständlich und rückverfolgbar sein. Dies ist eine der technisch anspruchsvollsten Anforderungen für KI-Anbieter, da viele leistungsstarke KI-Ansätze von Natur aus schwer zu erklären sind.
Zuverlässigkeit: KI-Anwendungen müssen gemäß ihrer beabsichtigten Zweckbestimmung über das gesamte Spektrum operativer Bedingungen hinweg — nicht nur unter Testbedingungen — zuverlässig funktionieren. Dies spiegelt direkt die Unterscheidung zwischen kampferprobt und laborerprobt wider.
Steuerbarkeit: KI-Systeme müssen so konzipiert sein, dass eine angemessene menschliche Aufsicht und Kontrolle möglich ist, mit der Fähigkeit, KI-Funktionen bei Bedarf zu übersteuern, anzupassen oder zu deaktivieren.
Bias-Minimierung: Es müssen Anstrengungen unternommen werden, unbeabsichtigten Bias in KI-Anwendungen zu minimieren, der die Entscheidungsfindung beeinflussen könnte. Dies erfordert dokumentierte Tests auf Leistungsunterschiede unter verschiedenen Umgebungsbedingungen.
Anforderungen an KI-Systeme: Erklärbarkeit, Auditierbarkeit, Robustheit
Erklärbarkeit im NATO-Kontext bedeutet nicht, dass das KI-System eine vollständige technische Erklärung seiner Modell-Interna liefern muss. Für ein Bildklassifizierungssystem könnte dies bedeuten, die Merkmale im Bild hervorzuheben, die am stärksten zur Klassifizierung beigetragen haben. Für ein Logistikoptimierungssystem könnte es bedeuten, die Einschränkungen zu zeigen, die die empfohlene Routingentscheidung beeinflusst haben.
Auditierbarkeit erfordert, dass das Verhalten von KI-Systemen nachträglich zur Überprüfung rekonstruiert werden kann — für operatives Lernen, Fehleruntersuchung oder rechtliche Rechenschaftspflicht. KI-Systeme müssen ihre Eingaben, Denkprozesse und Ausgaben mit ausreichender Detailtiefe für eine nachträgliche Analyse protokollieren.
Robustheit befasst sich mit der Systemleistung bei Verteilungsverschiebung — wenn operative Eingaben von der Verteilung der Trainingsdaten abweichen. Militärische Umgebungen sind genau durch diese Art von Verteilungsverschiebung gekennzeichnet: Sensoren arbeiten unter Bedingungen, die in den Trainingsdaten nicht vertreten waren, und Gegner versuchen aktiv, Eingaben zu erstellen, die KI-Systeme täuschen.
Kernaussage: Die KI-Anforderungen der NATO zielen nicht primär auf die Einschränkung von KI-Fähigkeiten — sie zielen auf die Schaffung ausreichenden Vertrauens in KI-Systeme, um deren operativen Einsatz zu ermöglichen. Ein Anbieter, der die Einhaltung der NATO-KI-Prinzipien als Einschränkung betrachtet, hat den Punkt verfehlt. Die Prinzipien existieren, weil KI-Systeme, die nicht erklärt, auditiert oder übersteuert werden können, von operativen Militärnutzern unabhängig von ihrer technischen Leistung nicht übernommen werden.
Implikationen für Verteidigungs-Softwareanbieter
Für Softwareanbieter, die KI-fähige Verteidigungsprodukte entwickeln, hat die NATO-KI-Strategie konkrete Implikationen. Die wichtigsten: Erklärbarkeit von Anfang an einplanen; Trainingsdaten und Testmethodik dokumentieren; menschliche Übersteuerung in die Architektur einbauen, nicht als Nachgedanken.
KI-Governance-Frameworks: ALTAI und der EU AI Act
Neben NATO-spezifischen Anforderungen müssen Verteidigungs-KI-Anbieter in Europa auch den KI-Governance-Rahmen der EU navigieren. Der EU AI Act, der 2024 in Kraft trat, enthält eine spezifische Ausnahme für KI-Systeme, die ausschließlich für militärische und sicherheitspolitische Zwecke eingesetzt werden. Die Bewertungsliste für vertrauenswürdige KI (ALTAI) bietet ein Selbstbewertungsinstrument, das eng mit beiden Anforderungssätzen übereinstimmt.