OpenAI, la société à l’origine de ChatGPT, a discrètement approfondi ses liens avec l’armée américaine, bien qu’elle ait précédemment interdit de telles collaborations. L’annonce récente d’un accord avec le Pentagone, suite à l’échec d’un contrat avec Anthropic, a suscité des critiques internes et des questions sur l’évolution des politiques de l’entreprise.
Il ne s’agit pas seulement d’une seule affaire ; il révèle une tendance d’OpenAI à naviguer sur un terrain éthique trouble tout en s’engageant avec les agences de défense.
Le changement de politique : de l’interdiction au partenariat
En 2023, OpenAI a explicitement interdit l’accès des militaires à ses modèles d’IA. Cependant, le Pentagone expérimentait déjà la technologie OpenAI via le service Azure OpenAI de Microsoft, partenaire de longue date de Microsoft et investisseur OpenAI. Des employés auraient observé des responsables du Pentagone visiter le siège d’OpenAI alors que l’interdiction était en vigueur, créant ainsi une confusion quant à l’application de la politique.
OpenAI et Microsoft soutiennent que les produits Azure OpenAI n’ont jamais été soumis aux restrictions d’utilisation d’OpenAI, une distinction qui a permis à l’accès militaire de continuer en coulisses. En janvier 2024, OpenAI a discrètement levé l’interdiction générale de l’utilisation militaire, les employés étant informés du changement par le biais de rapports externes plutôt que de communications internes.
Expansion dans la défense : Anduril et au-delà
OpenAI s’est depuis associé à Anduril pour développer des systèmes d’IA pour les « missions de sécurité nationale ». Initialement conçu comme limité aux charges de travail non classifiées, ce partenariat contraste avec l’accord d’Anthropic avec Palantir, qui concernait des applications militaires classifiées. OpenAI a même décliné l’offre de Palantir de rejoindre son programme « FedStart », le jugeant trop risqué.
Malgré un débat interne (certains employés ont remis en question la fiabilité de l’IA d’OpenAI pour les tâches critiques), l’entreprise est allée plus loin dans la défense. Le PDG Sam Altman a publiquement déclaré son soutien au déploiement responsable de l’IA tout en poursuivant simultanément des contrats avec l’OTAN, signalant une ambition plus large de vendre ses modèles aux organisations internationales de défense.
Opacité et surveillance
Le manque de transparence entourant ces partenariats est une préoccupation majeure. Sarah Shoker, ancienne responsable géopolitique d’OpenAI, affirme que l’opacité de l’IA militaire entrave la compréhension de ses effets dans le monde réel, créant des « boîtes noires jusqu’au bout ». Les experts suggèrent que le Pentagone utilise peut-être déjà l’IA d’OpenAI à des fins de surveillance juridique, comme l’achat et l’analyse des données des utilisateurs.
OpenAI a modifié son accord en réponse à certaines préoccupations, mais sans divulgation complète, le public doit se fier à la parole de l’entreprise. Cela soulève des questions sur la responsabilité et le potentiel d’applications militaires incontrôlées de l’IA.
En substance, OpenAI a troqué sa position éthique initiale contre un engagement plus profond avec le secteur de la défense. Ce changement met en évidence la tension entre les intérêts commerciaux, les préoccupations de sécurité nationale et le rôle évolutif de l’IA dans la guerre. L’absence de contrôle public garantit que toutes les implications de ces partenariats resteront largement inconnues, laissant les civils et les zones de conflit vulnérables au déploiement incontrôlé de l’IA militaire.
