Il soldato digitale: come l’esercito americano sta costruendo un’intelligenza artificiale personalizzata per il campo di battaglia

19

L’esercito americano sta andando oltre il semplice utilizzo di software commerciale; ora sta sviluppando una propria intelligenza artificiale specializzata per supportare i soldati sul campo. Un nuovo progetto, nome in codice Victor, mira a trasformare il modo in cui il personale militare accede alle informazioni critiche, trasformando decenni di esperienza di combattimento in uno strumento di intelligence interattivo e consultabile.

Dalle lezioni di combattimento alle risposte istantanee

La missione principale del Progetto Victor è prevenire la “ripetizione degli errori”. Nelle operazioni militari, unità diverse spesso incontrano gli stessi ostacoli tecnici o tattici in luoghi diversi. Senza un modo centralizzato per condividere queste esperienze, spesso si perdono lezioni preziose.

Victor risolve questo problema funzionando come un sistema ibrido:
Un Knowledge Hub: combina un’interfaccia in stile forum (simile a Reddit) con un chatbot specializzato chiamato VictorBot.
Dati testati in combattimento: il sistema viene addestrato su oltre 500 archivi di dati, comprese le “lezioni apprese” dai principali conflitti come la guerra Russia-Ucraina e l’operazione Epic Fury.
Supporto tecnico: per compiti complessi, come la configurazione di sistemi di guerra elettromagnetica, un soldato può chiedere consiglio a VictorBot. L’intelligenza artificiale non si limita a fornire una risposta; cita post e commenti specifici di altri membri del servizio per garantire l’accuratezza e fornire contesto.

L’obiettivo finale è rendere il sistema multimodale, consentendo ai soldati di caricare immagini o video per ricevere approfondimenti tattici in tempo reale.

Uno spostamento verso l’IA di proprietà militare

Sebbene il Pentagono abbia integrato in modo aggressivo l’intelligenza artificiale nei suoi sistemi negli ultimi due anni, Victor rappresenta un cambiamento strategico. Invece di fare affidamento esclusivamente su piattaforme di terze parti, l’Esercito sta costruendo la propria intelligence proprietaria.

Questa mossa evidenzia una tendenza crescente nella tecnologia di difesa: il desiderio di padroneggiare internamente gli aspetti pratici dell’intelligenza artificiale. Mentre l’Esercito sta attualmente lavorando con un fornitore di terze parti anonimo per mettere a punto i modelli, l’intento è quello di creare una fonte autorevole di informazioni sull’Esercito che sia controllata e adattata specificamente alle esigenze militari.

I rischi: accuratezza, etica e “servofania”

L’integrazione dell’intelligenza artificiale nella guerra non è priva di attriti significativi. Man mano che questi strumenti passano dall’aiuto amministrativo “back-office” al supporto attivo al combattimento, sono emerse diverse sfide critiche:

1. Il problema dell’allucinazione e del “servofania”.

Esperti militari, tra cui Paul Scharre del Center for New American Security, avvertono che i modelli di intelligenza artificiale possono essere “sicofanici”, nel senso che potrebbero dire agli utenti ciò che vogliono sentire piuttosto che ciò che è vero. Nell’analisi dell’intelligence, un chatbot che concorda con il pregiudizio di un comandante anziché correggerlo potrebbe portare a errori catastrofici.

2. L’ascesa dell’intelligenza artificiale “agentica”.

La transizione dai semplici chatbot agli “agenti AI” – sistemi in grado di utilizzare autonomamente il software e navigare nelle reti – introduce enormi rischi per la sicurezza. Se un agente AI viene compromesso o non funziona correttamente, potrebbe potenzialmente manipolare l’infrastruttura digitale durante un conflitto.

3. Battaglie etiche e legali

C’è una tensione continua tra il settore militare e quello privato. Aziende come Anthropic si sono opposte al Pentagono, sostenendo che la loro tecnologia non dovrebbe essere utilizzata per armi autonome o sorveglianza di massa. Ciò crea un panorama complesso in cui il governo deve bilanciare la necessità di strumenti avanzati con i vincoli etici delle aziende che li forniscono.

“Victor sarà una delle poche fonti con accesso ad informazioni autorevoli sull’esercito”, afferma il tenente colonnello Jon Nielsen, che supervisiona il progetto.

Conclusione

Il progetto Victor segna un momento cruciale nell’evoluzione militare, trasformando l’intelligenza artificiale da uno strumento generico a una risorsa di combattimento specializzata. Sebbene prometta di semplificare la logistica e preservare la saggezza tattica, l’Esercito deve ancora affrontare i profondi rischi etici e di sicurezza inerenti alla delega dell’intelligence a sistemi autonomi.