A administração Trump decidiu proibir o uso de ferramentas de inteligência artificial da Anthropic em todas as agências federais, agravando a disputa sobre as aplicações militares da tecnologia. A decisão, anunciada na sexta-feira, segue semanas de confrontos entre a administração e a startup de IA sobre restrições sobre como a IA pode ser implantada.
O presidente Trump emitiu a diretriz, afirmando que a Anthropic havia tentado “armar fortemente” o Departamento de Defesa e que a medida era necessária para proteger os interesses americanos. As agências terão um período de eliminação progressiva de seis meses para cumprir, permitindo potencialmente novas negociações.
Agravamento do conflito com implicações para a segurança nacional
A proibição vai além da simples cessação do uso. O secretário da Defesa, Pete Hegseth, designou a Anthropic como um “risco da cadeia de abastecimento”, impedindo efectivamente os militares dos EUA e os seus empreiteiros de trabalharem com a empresa. Esta designação, normalmente reservada a entidades estrangeiras consideradas ameaças à segurança nacional, sublinha a severidade da posição da administração.
O cerne do conflito centra-se na exigência do Pentágono de “toda a utilização legal” da IA, incluindo o potencial para sistemas de armas totalmente autónomos ou vigilância em massa. A Anthropic resistiu, argumentando que tal implantação irrestrita poderia levar a resultados perigosos. Embora o Pentágono insista que não tem planos actuais para estas aplicações, as autoridades deixaram claro que se opõem a uma empresa de tecnologia civil ditar o uso militar de tecnologia crítica.
A ascensão da IA na defesa e o papel complicado do Vale do Silício
A Anthropic foi o primeiro grande laboratório de IA a fazer parceria com os militares dos EUA, garantindo um acordo de US$ 200 milhões no ano passado para desenvolver modelos restritos conhecidos como Claude Gov. Google, OpenAI e xAI seguiram o exemplo, mas a Anthropic continua sendo a única empresa atualmente trabalhando com sistemas classificados.
A medida do Pentágono destaca uma tendência mais ampla: a crescente adesão de Silicon Valley aos contratos de defesa. Esta mudança levou a tensões internas na indústria, com centenas de funcionários da OpenAI e do Google assinando uma carta aberta apoiando a Anthropic e criticando suas próprias empresas por removerem restrições ao uso militar de IA. O CEO da OpenAI, Sam Altman, afirmou que sua empresa compartilha as preocupações da Antrópico sobre armas totalmente autônomas e vigilância em massa, mas pretende negociar um acordo para continuar trabalhando com o Pentágono.
Disputas subjacentes e perspectivas de especialistas
A disputa veio à tona publicamente depois que surgiram relatos de que os líderes militares dos EUA usaram o modelo Claude da Antrópico para ajudar no planejamento de uma operação para capturar o presidente da Venezuela, Nicolás Maduro. A Anthropic nega ter interferido no uso de sua tecnologia pelo Pentágono, mas o incidente desencadeou uma retórica crescente de ambos os lados.
Alguns especialistas argumentam que o conflito é em grande parte simbólico. Michael Horowitz, um ex-funcionário do Pentágono, sugere que a disputa é sobre “casos de uso teóricos que não estão sobre a mesa no momento”, com a Anthropic tendo apoiado todas as aplicações atuais de sua tecnologia do DoD.
No entanto, as ações da administração sinalizam uma linha firme contra a perceção de um excesso corporativo nos assuntos militares. A Anthropic foi fundada com base no princípio da segurança da IA, e seu CEO, Dario Amodei, alertou contra os perigos do desenvolvimento descontrolado da IA. A resposta da administração sugere que tais preocupações não ditarão a política de segurança nacional.
Conclusão
A proibição das ferramentas de IA da Anthropic pela administração Trump marca uma escalada significativa no debate sobre o papel das empresas privadas de tecnologia em aplicações militares. A medida sublinha a vontade da administração de afirmar o controlo sobre a implantação da IA e dar prioridade às considerações de segurança nacional sobre as objecções corporativas. O conflito provavelmente remodelará o cenário das parcerias de defesa da IA, forçando as empresas a navegar num ambiente regulatório mais assertivo.
