Le ministère américain de la Défense a lancé un ultimatum sévère à Anthropic, le seul fournisseur de modèles d’intelligence artificielle actuellement intégrés dans des systèmes militaires classifiés. D’ici vendredi à 17h01, Anthropic doit se conformer aux exigences du Pentagone ou faire face à l’activation du Defense Production Act (DPA). Le DPA obligerait Anthropic à autoriser l’utilisation militaire de son modèle d’IA, tout en désignant simultanément l’entreprise comme un risque pour la chaîne d’approvisionnement – une décision qui pourrait mettre en péril des contrats gouvernementaux lucratifs.
La contradiction : Cette double menace – empêcher et forcer l’accès du gouvernement – met en évidence la frustration croissante du Pentagone face à la résistance d’Anthropic. L’urgence souligne à quel point la technologie d’Anthropic est devenue essentielle pour les opérations militaires.
Le secrétaire à la Défense, Pete Hegseth, a personnellement convoqué mardi le PDG d’Anthropic, Dario Amodei, au Pentagone pour une réunion au cours de laquelle l’ultimatum a été lancé. Des sources affirment que la discussion était apparemment polie, mais ferme : accepter les conditions ou faire face aux conséquences.
Pourquoi c’est important : La posture agressive du Pentagone est inhabituelle, d’autant plus que les désignations de DPA et de risque de chaîne d’approvisionnement sont généralement réservées aux véritables urgences de sécurité nationale. En utilisant ces outils comme levier dans un conflit commercial, le Pentagone risque de miner sa crédibilité et de diluer les futurs efforts de répression. Comme le souligne Jessica Tillipman, doyenne associée à la faculté de droit de l’Université George Washington, « le plus gros problème ici est que cela édulcore ces désignations… transformant les outils de sécurité nationale en un levier pour les entreprises. »
Cette décision reflète une tendance plus large : les gouvernements du monde entier se demandent comment réglementer l’IA, en particulier lorsqu’il s’agit d’applications de défense. Les tactiques du Pentagone témoignent d’une volonté d’exercer une pression extrême pour garantir l’accès aux technologies critiques, soulevant des questions sur l’équilibre entre sécurité nationale et autonomie des entreprises.
Le résultat : Anthropic doit décider s’il doit céder aux exigences du Pentagone ou risquer de perdre l’accès à de précieux contrats gouvernementaux. Le résultat créera probablement un précédent pour les interactions futures entre l’armée et les développeurs d’IA, et déterminera la rapidité avec laquelle les forces armées adopteront des systèmes d’IA avancés.
