L’administration Trump interdit l’utilisation des outils d’IA anthropique par le gouvernement américain

7

L’administration Trump a décidé d’interdire l’utilisation des outils d’intelligence artificielle d’Anthropic dans toutes les agences fédérales, aggravant ainsi le différend sur les applications militaires de cette technologie. La décision, annoncée vendredi, fait suite à des semaines d’affrontements entre l’administration et la start-up d’IA sur les restrictions sur la manière dont l’IA peut être déployée.

Le président Trump a publié la directive, déclarant qu’Anthropic avait tenté de « renforcer » le ministère de la Défense et que cette décision était nécessaire pour protéger les intérêts américains. Les agences disposeront d’une période d’élimination progressive de six mois pour se conformer, ce qui permettra éventuellement de poursuivre les négociations.

Escalade du conflit avec des implications pour la sécurité nationale

L’interdiction s’étend au-delà de la simple cessation d’utilisation. Le secrétaire à la Défense, Pete Hegseth, a qualifié Anthropic de « risque pour la chaîne d’approvisionnement », empêchant ainsi l’armée américaine et ses sous-traitants de travailler avec l’entreprise. Cette désignation, généralement réservée aux entités étrangères considérées comme des menaces à la sécurité nationale, souligne la sévérité de la position de l’administration.

Le cœur du conflit se concentre sur l’exigence du Pentagone de « toute utilisation licite » de l’IA, y compris la possibilité de systèmes d’armes entièrement autonomes ou de surveillance de masse. Anthropic a résisté, arguant qu’un tel déploiement sans restriction pourrait conduire à des résultats dangereux. Alors que le Pentagone insiste sur le fait qu’il n’a actuellement aucun projet pour ces applications, les responsables ont clairement indiqué qu’ils s’opposaient à ce qu’une entreprise de technologie civile dicte l’utilisation militaire de technologies critiques.

L’essor de l’IA dans la défense et le rôle compliqué de la Silicon Valley

Anthropic a été le premier grand laboratoire d’IA à s’associer à l’armée américaine, obtenant l’année dernière un accord de 200 millions de dollars pour développer des modèles restreints connus sous le nom de Claude Gov. Google, OpenAI et xAI ont emboîté le pas, mais Anthropic reste la seule entreprise à travailler actuellement avec des systèmes classifiés.

La décision du Pentagone met en évidence une tendance plus large : l’adhésion croissante de la Silicon Valley aux contrats de défense. Ce changement a conduit à des tensions internes au sein de l’industrie, avec des centaines d’employés d’OpenAI et de Google signant une lettre ouverte soutenant Anthropic et critiquant leurs propres entreprises pour avoir supprimé les restrictions sur l’utilisation de l’IA militaire. Le PDG d’OpenAI, Sam Altman, a déclaré que son entreprise partageait les préoccupations d’Anthropic concernant les armes entièrement autonomes et la surveillance de masse, mais qu’elle avait l’intention de négocier un accord pour continuer à travailler avec le Pentagone.

Différends sous-jacents et points de vue d’experts

Le différend a fait surface publiquement après que des informations ont été publiées selon lesquelles les dirigeants militaires américains auraient utilisé le modèle Claude d’Anthropic pour aider à planifier une opération visant à capturer le président vénézuélien Nicolás Maduro. Anthropic nie avoir interféré avec l’utilisation de sa technologie par le Pentagone, mais l’incident a déclenché une escalade de la rhétorique des deux côtés.

Certains experts affirment que le conflit est largement symbolique. Michael Horowitz, un ancien responsable du Pentagone, suggère que le différend porte sur « des cas d’utilisation théoriques qui ne sont pas sur la table pour l’instant », Anthropic ayant pris en charge toutes les applications actuelles du DoD de sa technologie.

Cependant, les actions de l’administration témoignent d’une ligne ferme contre ce qui est perçu comme une trop grande ingérence des entreprises dans les affaires militaires. Anthropic a été fondée sur le principe de la sécurité de l’IA, et son PDG, Dario Amodei, a mis en garde contre les dangers d’un développement incontrôlé de l’IA. La réponse de l’administration suggère que de telles préoccupations ne dicteront pas la politique de sécurité nationale.

Conclusion

L’interdiction par l’administration Trump des outils d’IA d’Anthropic marque une escalade significative dans le débat sur le rôle des entreprises technologiques privées dans les applications militaires. Cette décision souligne la volonté de l’administration d’affirmer son contrôle sur le déploiement de l’IA et de donner la priorité aux considérations de sécurité nationale plutôt qu’aux objections des entreprises. Le conflit va probablement remodeler le paysage des partenariats IA-défense, obligeant les entreprises à naviguer dans un environnement réglementaire plus affirmé.