La stratégie d'intelligence artificielle de l'OTAN, adoptée par les ministres de la défense alliés en octobre 2021, a établi le cadre de l'Alliance pour l'adoption responsable de l'IA dans l'ensemble des opérations militaires et civiles. Bien que la stratégie elle-même soit un document de politique de haut niveau, elle a généré un ensemble de requirements concrets qui se traduisent directement en critères d'approvisionnement pour les logiciels de défense dotés d'IA. Comprendre ces exigences n'est pas facultatif pour les fournisseurs de logiciels cherchant à vendre des capacités IA sur le marché OTAN — c'est une condition de qualification de base.

La stratégie a continué à se développer depuis 2021. Le Concept Stratégique 2022 a renforcé l'IA comme domaine technologique prioritaire. Le programme DIANA a intégré les principes de la stratégie dans ses critères d'évaluation. Et les États membres individuels de l'OTAN traduisent les principes au niveau de l'Alliance en exigences d'approvisionnement nationales.

Stratégie IA de l'OTAN : six principes pour une IA responsable

Le cœur de la stratégie IA de l'OTAN est un ensemble de six principes pour l'utilisation responsable de l'IA dans la défense. Ces principes ont été développés en alignement avec les Principes IA de l'OCDE.

Légalité : les applications IA doivent être développées et utilisées conformément au droit national et international. Pour les fournisseurs de logiciels, cela signifie que les systèmes IA destinés à un usage militaire opérationnel doivent être conçus avec des contraintes explicites empêchant les utilisations illégales.

Responsabilité et imputabilité : il doit y avoir une responsabilité claire et non ambiguë pour les systèmes IA, tant pendant le développement qu'en utilisation opérationnelle. Ce principe exige une traçabilité claire depuis les sorties du système IA jusqu'aux décideurs humains.

Explicabilité et traçabilité : les applications IA doivent être compréhensibles et traçables d'une manière appropriée au contexte de leur utilisation. C'est l'une des exigences les plus techniquement exigeantes pour les fournisseurs d'IA, car de nombreuses approches hautement performantes sont intrinsèquement difficiles à expliquer.

Fiabilité : les applications IA doivent fonctionner de manière fiable conformément à leur but prévu dans toute la gamme des conditions opérationnelles — pas seulement dans les conditions de test. Cela fait directement écho à la distinction entre systèmes éprouvés au combat et en laboratoire.

Gouvernabilité : les systèmes IA doivent être conçus pour permettre une supervision et un contrôle humains appropriés, avec la capacité d'intervenir, d'ajuster ou de désactiver les fonctions IA si nécessaire.

Atténuation des biais : des efforts doivent être faits pour minimiser les biais non intentionnels dans les applications IA qui pourraient affecter la prise de décision. Cela nécessite des tests documentés des disparités de performance dans différentes conditions environnementales.

Exigences pour les systèmes IA : explicabilité, auditabilité, robustesse

L'explicabilité dans un contexte OTAN ne signifie pas que le système IA doit fournir une explication technique complète de ses mécanismes internes. Pour un système de classification d'images, cela pourrait signifier mettre en évidence les caractéristiques de l'image qui ont le plus contribué à la classification. Pour un système d'optimisation logistique, cela pourrait signifier montrer quelles contraintes ont conduit à la décision de routage recommandée.

L'auditabilité exige que le comportement du système IA puisse être reconstitué après coup pour examen — pour l'apprentissage opérationnel, l'investigation d'erreurs ou la responsabilité juridique. Les systèmes IA doivent enregistrer leurs entrées, processus de raisonnement et sorties avec suffisamment de détails pour permettre une analyse post-hoc.

La robustesse aborde les performances du système lors d'un décalage de distribution — lorsque les entrées opérationnelles diffèrent de la distribution des données d'entraînement. Les environnements militaires sont caractérisés exactement par ce type de décalage : les capteurs opèrent dans des conditions non représentées dans les données d'entraînement, et les adversaires tentent activement de créer des entrées qui trompent les systèmes IA.

Observation clé : Les exigences IA de l'OTAN ne visent pas principalement à limiter les capacités IA — elles visent à créer suffisamment de confiance dans les systèmes IA pour permettre leur adoption opérationnelle. Un fournisseur qui considère la conformité aux principes IA de l'OTAN comme une contrainte passe à côté de l'essentiel. Les principes existent parce que les systèmes IA qui ne peuvent pas être expliqués, audités ou remplacés ne seront pas adoptés par les utilisateurs militaires opérationnels, quelle que soit leur performance technique.

Implications pour les fournisseurs de logiciels de défense

Pour les fournisseurs de logiciels développant des produits de défense dotés d'IA, la stratégie IA de l'OTAN a des implications concrètes. Les plus importantes : concevoir l'explicabilité dès le départ ; documenter les données d'entraînement et la méthodologie de test ; intégrer le remplacement humain dans l'architecture, pas comme une réflexion après coup.

Cadres de gouvernance IA : ALTAI et le règlement européen sur l'IA

Au-delà des exigences spécifiques à l'OTAN, les fournisseurs d'IA de défense opérant en Europe doivent également naviguer dans le cadre de gouvernance IA de l'UE. Le règlement européen sur l'IA, entré en vigueur en 2024, inclut une exemption spécifique pour les systèmes IA utilisés exclusivement à des fins militaires et de sécurité nationale. La liste d'évaluation pour une IA digne de confiance (ALTAI) fournit un outil d'auto-évaluation qui s'aligne étroitement avec les six principes de l'OTAN et les exigences du règlement européen sur l'IA.