O Exército dos EUA está indo além do simples uso de software comercial; está agora a desenvolver a sua própria inteligência artificial especializada para apoiar os soldados no terreno. Um novo projeto, de codinome Victor, visa transformar a forma como os militares acessam informações críticas, transformando décadas de experiência de combate em uma ferramenta de inteligência interativa e pesquisável.
Das aulas de combate às respostas instantâneas
A missão central do Projeto Victor é prevenir a “repetição de erros”. Nas operações militares, unidades diferentes frequentemente enfrentam os mesmos obstáculos técnicos ou táticos em locais diferentes. Sem uma forma centralizada de partilhar estas experiências, perdem-se frequentemente lições valiosas.
Victor resolve isso funcionando como um sistema híbrido:
– Um centro de conhecimento: combina uma interface estilo fórum (semelhante ao Reddit) com um chatbot especializado chamado VictorBot.
– Dados testados em combate: O sistema está sendo treinado em mais de 500 repositórios de dados, incluindo “lições aprendidas” de grandes conflitos como a Guerra Rússia-Ucrânia e a Operação Epic Fury.
– Suporte Técnico: Para tarefas complexas, como configurar sistemas de guerra eletromagnética, um soldado pode pedir orientação ao VictorBot. A IA não fornece apenas uma resposta; cita postagens e comentários específicos de outros membros do serviço para garantir a precisão e fornecer contexto.
O objetivo final é tornar o sistema multimodal, permitindo que os soldados carreguem imagens ou vídeos para receber informações táticas em tempo real.
Uma mudança em direção à IA de propriedade militar
Embora o Pentágono tenha integrado agressivamente a IA nos seus sistemas nos últimos dois anos, Victor representa uma mudança estratégica. Em vez de depender apenas de plataformas de terceiros, o Exército está a construir a sua própria inteligência proprietária.
Esta mudança destaca uma tendência crescente na tecnologia de defesa: o desejo de dominar internamente os “porcas e parafusos” da IA. Embora o Exército esteja atualmente trabalhando com um fornecedor terceirizado não identificado para ajustar os modelos, a intenção é criar uma fonte autorizada de informações do Exército que seja controlada e adaptada especificamente às necessidades militares.
Os riscos: precisão, ética e “bajulação”
A integração da IA na guerra não ocorre sem atritos significativos. À medida que estas ferramentas passam da ajuda administrativa de “back-office” para o apoio activo ao combate, vários desafios críticos surgiram:
1. O problema da alucinação e da “bajulação”
Especialistas militares, incluindo Paul Scharre, do Center for New American Security, alertam que os modelos de IA podem ser “bajuladores” – o que significa que podem dizer aos utilizadores o que querem ouvir, em vez do que é verdade. Na análise de inteligência, um chatbot que concorde com a parcialidade de um comandante, em vez de corrigi-la, pode levar a erros catastróficos.
2. A ascensão da IA “Agentic”
A transição de chatbots simples para “agentes de IA” – sistemas capazes de usar software e navegar em redes de forma independente – introduz enormes riscos de segurança. Se um agente de IA estiver comprometido ou funcionar mal, poderá potencialmente manipular a infraestrutura digital durante um conflito.
3. Batalhas Éticas e Jurídicas
Existe uma tensão contínua entre os militares e o sector privado. Empresas como a Anthropic reagiram contra o Pentágono, argumentando que a sua tecnologia não deveria ser utilizada para armas autónomas ou vigilância em massa. Isto cria um cenário complexo onde o governo deve equilibrar a necessidade de ferramentas avançadas com as restrições éticas das empresas que as fornecem.
“Victor será uma das únicas fontes com acesso a informações oficiais do Exército”, diz o Tenente-Coronel Jon Nielsen, que supervisiona o projeto.
Conclusão
O Projeto Victor marca um momento crucial na evolução militar, movendo a IA de uma ferramenta de uso geral para um recurso de combate especializado. Embora prometa agilizar a logística e preservar a sabedoria táctica, o Exército ainda deve enfrentar os profundos riscos éticos e de segurança inerentes à delegação de inteligência a sistemas autónomos.
