Il Dipartimento della Difesa degli Stati Uniti ha lanciato un duro ultimatum ad Anthropic, l’unico fornitore di modelli di intelligenza artificiale attualmente integrati in sistemi militari classificati. Entro venerdì alle 17:01, Anthropic dovrà conformarsi alle richieste del Pentagono o affrontare l’attivazione del Defense Production Act (DPA). La DPA obbligherebbe Anthropic a consentire l’uso militare del suo modello di intelligenza artificiale, designando allo stesso tempo l’azienda come un rischio per la catena di approvvigionamento – una mossa che potrebbe mettere a repentaglio lucrosi contratti governativi.
La contraddizione: Questa duplice minaccia – impedire e forzare l’accesso del governo – evidenzia la crescente frustrazione del Pentagono nei confronti della resistenza di Anthropic. Questa urgenza sottolinea quanto sia diventata critica la tecnologia di Anthropic per le operazioni militari.
Martedì il segretario alla Difesa Pete Hegseth ha convocato personalmente il CEO di Anthropic, Dario Amodei, al Pentagono per un incontro, durante il quale è stato consegnato l’ultimatum. Le fonti affermano che la discussione è stata apparentemente educata, ma ferma: accettare i termini o affrontare le conseguenze.
Perché questo è importante: L’atteggiamento aggressivo del Pentagono è insolito, soprattutto considerando che le designazioni del DPA e dei rischi della catena di fornitura sono generalmente riservate a vere emergenze di sicurezza nazionale. Utilizzando questi strumenti come armi in una controversia commerciale, il Pentagono rischia di minarne la credibilità e di diluire i futuri sforzi di applicazione delle norme. Come sottolinea Jessica Tillipman, preside associato della George Washington University Law School, “Il problema più grande qui è che annacqua queste designazioni… trasformando gli strumenti di sicurezza nazionale in un punto di leva per le imprese”.
La mossa riflette una tendenza più ampia: i governi di tutto il mondo sono alle prese con come regolamentare l’intelligenza artificiale, in particolare quando si tratta di applicazioni di difesa. Le tattiche del Pentagono segnalano la volontà di esercitare pressioni estreme per garantire l’accesso alle tecnologie critiche, sollevando interrogativi sull’equilibrio tra sicurezza nazionale e autonomia aziendale.
Il risultato: Anthropic deve decidere se cedere alle richieste del Pentagono o rischiare di perdere l’accesso a preziosi contratti governativi. Il risultato probabilmente costituirà un precedente per le future interazioni tra l’esercito e gli sviluppatori di intelligenza artificiale e determinerà la rapidità con cui le forze armate adotteranno sistemi di intelligenza artificiale avanzati.





























