OpenAI, la compañía detrás de ChatGPT, ha profundizado silenciosamente sus vínculos con el ejército estadounidense a pesar de haber prohibido previamente tales colaboraciones. El reciente anuncio de un acuerdo con el Pentágono, tras un contrato fallido con Anthropic, ha provocado críticas internas y preguntas sobre la evolución de las políticas de la empresa.
No se trata sólo de un trato; revela un patrón en el que OpenAI navega por terrenos éticos turbios mientras interactúa con agencias de defensa.
El cambio de política: de la prohibición a la asociación
En 2023, OpenAI prohibió explícitamente el acceso militar a sus modelos de IA. Sin embargo, el Pentágono ya estaba experimentando con la tecnología OpenAI a través del servicio Azure OpenAI de Microsoft, un socio de Microsoft e inversor en OpenAI desde hace mucho tiempo. Según se informa, los empleados observaron a funcionarios del Pentágono visitando la sede de OpenAI mientras la prohibición estaba en vigor, lo que generó confusión sobre la aplicación de la política.
OpenAI y Microsoft sostienen que los productos Azure OpenAI nunca estuvieron sujetos a las restricciones de uso de OpenAI, una distinción que permitió que el acceso militar continuara entre bastidores. En enero de 2024, OpenAI eliminó silenciosamente la prohibición general del uso militar, y los empleados se enteraron del cambio a través de informes externos en lugar de comunicación interna.
Expansión a la defensa: Anduril y más allá
Desde entonces, OpenAI se ha asociado con Anduril para desarrollar sistemas de inteligencia artificial para “misiones de seguridad nacional”. Inicialmente planteada como limitada a cargas de trabajo no clasificadas, esta asociación contrasta con el acuerdo de Anthropic con Palantir, que involucraba aplicaciones militares clasificadas. OpenAI incluso rechazó la oferta de Palantir de unirse a su programa “FedStart”, por considerarlo demasiado arriesgado.
A pesar del debate interno (algunos empleados cuestionaron la confiabilidad de la IA de OpenAI para tareas críticas), la compañía ha avanzado más hacia la defensa. El director ejecutivo, Sam Altman, ha declarado públicamente su apoyo al despliegue responsable de la IA y, al mismo tiempo, busca contratos con la OTAN, lo que indica una ambición más amplia de vender sus modelos a organizaciones de defensa internacionales.
Opacidad y supervisión
La falta de transparencia en torno a estas asociaciones es una preocupación importante. La ex jefa de geopolítica de OpenAI, Sarah Shoker, sostiene que la opacidad de la IA militar dificulta la comprensión de sus efectos en el mundo real, creando “cajas negras hasta el final”. Los expertos sugieren que es posible que el Pentágono ya esté utilizando la IA de OpenAI para vigilancia legal, como comprar y analizar datos de usuarios.
OpenAI modificó su acuerdo en respuesta a algunas preocupaciones, pero sin una divulgación completa, el público debe confiar en la palabra de la empresa. Esto plantea dudas sobre la rendición de cuentas y el potencial de aplicaciones militares no controladas de la IA.
En esencia, OpenAI ha cambiado su postura ética inicial por un compromiso más profundo con el sector de defensa. Este cambio resalta la tensión entre los intereses comerciales, las preocupaciones de seguridad nacional y el papel cambiante de la IA en la guerra. La falta de supervisión pública garantiza que las implicaciones totales de estas asociaciones sigan siendo en gran medida desconocidas, dejando a los civiles y las zonas de conflicto vulnerables al despliegue incontrolado de IA militar.





























