L’armée américaine va au-delà de la simple utilisation de logiciels commerciaux ; elle développe désormais sa propre intelligence artificielle spécialisée pour accompagner les soldats sur le terrain. Un nouveau projet, nommé Victor, vise à transformer la façon dont le personnel militaire accède aux informations critiques, en transformant des décennies d’expérience de combat en un outil de renseignement interactif et consultable.
Des leçons de combat aux réponses instantanées
La mission principale du Projet Victor est d’empêcher la « répétition des erreurs ». Dans les opérations militaires, différentes unités se heurtent souvent aux mêmes obstacles techniques ou tactiques dans différents endroits. Sans un moyen centralisé de partager ces expériences, des enseignements précieux sont souvent perdus.
Victor résout ce problème en fonctionnant comme un système hybride :
– Un centre de connaissances : Il combine une interface de style forum (similaire à Reddit) avec un chatbot spécialisé nommé VictorBot.
– Données testées au combat : Le système est en cours de formation sur plus de 500 référentiels de données, y compris les « leçons apprises » de conflits majeurs comme la guerre Russie-Ukraine et l’opération Epic Fury.
– Support technique : Pour des tâches complexes, telles que la configuration de systèmes de guerre électromagnétique, un soldat peut demander conseil à VictorBot. L’IA ne se contente pas de fournir une réponse ; il cite des publications et des commentaires spécifiques d’autres membres du service pour garantir l’exactitude et fournir un contexte.
L’objectif ultime est de rendre le système multimodal, permettant aux soldats de télécharger des images ou des vidéos pour recevoir des informations tactiques en temps réel.
Une transition vers une IA appartenant à l’armée
Alors que le Pentagone a intégré de manière agressive l’IA dans ses systèmes au cours des deux dernières années, Victor représente un changement stratégique. Plutôt que de s’appuyer uniquement sur des plateformes tierces, l’armée construit son propre renseignement exclusif.
Cette décision met en évidence une tendance croissante dans les technologies de défense : le désir de maîtriser les « rouages » de l’IA en interne. Alors que l’armée travaille actuellement avec un fournisseur tiers anonyme pour affiner les modèles, l’intention est de créer une source faisant autorité d’informations sur l’armée, contrôlée et adaptée spécifiquement aux besoins militaires.
Les risques : précision, éthique et « flagornerie »
L’intégration de l’IA dans la guerre ne se fait pas sans frictions importantes. Alors que ces outils passent d’une aide administrative « back-office » à un soutien actif au combat, plusieurs défis critiques sont apparus :
1. Le problème des hallucinations et de la « flagornerie »
Des experts militaires, dont Paul Scharre du Center for New American Security, préviennent que les modèles d’IA peuvent être « flagorneurs », c’est-à-dire qu’ils peuvent dire aux utilisateurs ce qu’ils veulent entendre plutôt que ce qui est vrai. Dans l’analyse du renseignement, un chatbot qui approuve les préjugés d’un commandant plutôt que de les corriger pourrait conduire à des erreurs catastrophiques.
2. L’essor de l’IA « agentique »
La transition de simples chatbots vers des « agents IA » – des systèmes capables d’utiliser des logiciels et de naviguer sur les réseaux de manière indépendante – introduit des risques de sécurité massifs. Si un agent IA est compromis ou fonctionne mal, il pourrait potentiellement manipuler l’infrastructure numérique lors d’un conflit.
3. Batailles éthiques et juridiques
Il existe une tension constante entre l’armée et le secteur privé. Des entreprises comme Anthropic ont répliqué au Pentagone, arguant que leur technologie ne devrait pas être utilisée pour des armes autonomes ou pour la surveillance de masse. Cela crée un paysage complexe dans lequel le gouvernement doit équilibrer le besoin d’outils avancés avec les contraintes éthiques des entreprises qui les fournissent.
“Victor sera l’une des seules sources ayant accès à des informations faisant autorité sur l’armée”, déclare le lieutenant-colonel Jon Nielsen, qui supervise le projet.
Conclusion
Le projet Victor marque un moment charnière dans l’évolution militaire, faisant passer l’IA d’un outil polyvalent à un outil de combat spécialisé. Même si elle promet de rationaliser la logistique et de préserver la sagesse tactique, l’armée doit néanmoins composer avec les risques sécuritaires et éthiques profonds inhérents à la délégation du renseignement à des systèmes autonomes.
