A OpenAI, a empresa por trás do ChatGPT, aprofundou discretamente seus laços com os militares dos EUA, apesar de ter proibido anteriormente tais colaborações. O recente anúncio de um acordo com o Pentágono, na sequência de um contrato fracassado com a Antrópico, suscitou críticas internas e questões sobre a evolução das políticas da empresa.
Não se trata apenas de um acordo; revela um padrão de OpenAI navegando em terreno ético obscuro enquanto se envolve com agências de defesa.
A mudança política: da proibição à parceria
Em 2023, a OpenAI proibiu explicitamente o acesso militar aos seus modelos de IA. No entanto, o Pentágono já estava a experimentar a tecnologia OpenAI através do Azure OpenAI Service da Microsoft – um parceiro de longa data da Microsoft e investidor OpenAI. Os funcionários teriam observado funcionários do Pentágono visitando a sede da OpenAI enquanto a proibição estava em vigor, criando confusão sobre a aplicação da política.
A OpenAI e a Microsoft afirmam que os produtos Azure OpenAI nunca estiveram sujeitos às restrições de uso da OpenAI, uma distinção que permitiu que o acesso militar continuasse nos bastidores. Em janeiro de 2024, a OpenAI removeu discretamente a proibição geral do uso militar, com os funcionários aprendendo sobre a mudança por meio de relatórios externos, em vez de comunicação interna.
Expansão para a Defesa: Anduril e além
Desde então, a OpenAI fez parceria com a Anduril para desenvolver sistemas de IA para “missões de segurança nacional”. Inicialmente enquadrada como limitada a cargas de trabalho não confidenciais, esta parceria contrasta com o acordo da Anthropic com a Palantir, que envolveu aplicações militares confidenciais. A OpenAI até recusou a oferta da Palantir de aderir ao programa “FedStart”, considerando-o muito arriscado.
Apesar do debate interno – alguns funcionários questionaram a confiabilidade da IA da OpenAI para tarefas críticas – a empresa avançou ainda mais na defesa. O CEO Sam Altman declarou publicamente o seu apoio à implantação responsável da IA, ao mesmo tempo que procura contratos com a NATO, sinalizando uma ambição mais ampla de vender os seus modelos a organizações internacionais de defesa.
Opacidade e supervisão
A falta de transparência em torno destas parcerias é uma preocupação significativa. A ex-chefe de geopolítica da OpenAI, Sarah Shoker, argumenta que a opacidade da IA militar dificulta a compreensão de seus efeitos no mundo real, criando “caixas pretas em todo o caminho”. Especialistas sugerem que o Pentágono já pode estar usando a IA da OpenAI para vigilância legal, como compra e análise de dados de usuários.
A OpenAI alterou o seu acordo em resposta a algumas preocupações, mas sem a divulgação completa, o público deve confiar na palavra da empresa. Isto levanta questões sobre a responsabilização e o potencial para aplicações militares não controladas da IA.
Em essência, a OpenAI trocou a sua postura ética inicial por um envolvimento mais profundo com o setor de defesa. Esta mudança destaca a tensão entre os interesses comerciais, as preocupações de segurança nacional e a evolução do papel da IA na guerra. A falta de supervisão pública garante que todas as implicações destas parcerias permanecerão em grande parte desconhecidas, deixando os civis e as zonas de conflito vulneráveis à implantação desenfreada de IA militar.
