L'analyse du renseignement est fondamentalement une tâche linguistique. Les analystes de la DRM et de la DGSE lisent, évaluent, résument, recoupent et priorisent des rapports textuels provenant de sources multiples — câbles HUMINT, transcriptions SIGINT, reportages en sources ouvertes, partages de renseignement entre partenaires — et produisent des évaluations synthétisées pour les décideurs. Ce processus, à l'échelle des volumes de renseignement modernes, dépasse systématiquement la capacité des analystes humains.
Les grands modèles de langage (LLM) sont uniquement positionnés pour répondre à ce goulot d'étranglement. Leurs capacités fondamentales — lire et résumer des textes, classifier des contenus par sujet ou urgence, traduire entre les langues, extraire des entités nommées et des relations — correspondent directement aux étapes les plus chronophages du triage du renseignement.
Cas d'usage : résumé SIGINT, classification des menaces, analyse multilingue
Résumé des rapports SIGINT. Les transcriptions SIGINT contiennent souvent de nombreux éléments contextuels et procéduraux autour d'un petit nombre d'affirmations opérationnellement significatives. Un LLM configuré avec un prompt de résumé optimisé pour les rapports de renseignement extrait le contenu pertinent. Classification des menaces et notation de priorité. Les éléments entrants peuvent être classifiés selon une taxonomie de menaces prédéfinie — mouvements d'unités, indicateurs logistiques, activité de commandement, activité GE. Analyse de sources multilingues. Les LLM multilingues peuvent effectuer simultanément traduction et résumé, permettant à une petite équipe d'analystes de la DRM/EMA de couvrir un éventail linguistique plus large.
Options de déploiement : cloud, on-premise et modèles Edge quantifiés
Déploiement cloud (Azure Government / cloud classifié) — accès aux plus grands modèles sans investissement d'infrastructure on-premise. Déploiement on-premise air-gap (Ollama, vLLM) — pour les environnements SCIF sans connexion réseau externe, modèles open-source quantifiés sur serveurs GPU. Modèles Edge quantifiés sur Jetson AGX Orin pour les nœuds tactiques avancés — modèles 7B–13B paramètres au format Q4/Q5 à 15–30 tokens/seconde.
Risques : hallucinations, injection de prompts et biais
Les LLM peuvent produire des sorties cohérentes mais factuellement incorrectes — hallucinations. L'injection de prompts permet à un adversaire d'incorporer des instructions adversariales dans les données interceptées. Les biais dans l'évaluation des menaces sont réduits par le fine-tuning sur des données de renseignement étiquetées et les tests de calibration avant déploiement opérationnel.
Insight clé : Les LLM dans le triage du renseignement doivent être déployés comme outils d'accélération des analystes, non comme leur remplacement. L'architecture correcte route tous les éléments LLM-classifiés au-dessus d'un seuil minimum de confiance vers une révision humaine avant toute action opérationnelle — conforme aux directives DGA/EMA sur les systèmes IA.
Humain dans la boucle : seuils de confiance et journalisation d'audit
Chaque résultat d'inférence LLM — identifiant du document d'entrée, version du modèle, classification et résumé de sortie, score de confiance, résultat de la révision de l'analyste — doit être enregistré dans un journal d'audit immuable. Cela permet l'analyse post-action des performances du modèle et la responsabilité des décisions prises avec l'assistance de l'IA.