L’amministrazione Trump si è mossa per vietare l’uso degli strumenti di intelligenza artificiale di Anthropic in tutte le agenzie federali, intensificando la disputa sulle applicazioni militari della tecnologia. La decisione, annunciata venerdì, fa seguito a settimane di scontri tra l’amministrazione e la startup di intelligenza artificiale sulle restrizioni su come l’intelligenza artificiale può essere implementata.
Il presidente Trump ha emesso la direttiva, affermando che Anthropic aveva tentato di “forzare” il Dipartimento della Difesa e che la mossa era necessaria per proteggere gli interessi americani. Le agenzie avranno un periodo di sei mesi per conformarsi, consentendo potenzialmente ulteriori trattative.
Conflitto crescente con implicazioni sulla sicurezza nazionale
Il divieto si estende oltre la semplice cessazione dell’uso. Il segretario alla Difesa Pete Hegseth ha definito Anthropic un “rischio per la catena di fornitura”, impedendo di fatto alle forze armate statunitensi e ai suoi appaltatori di lavorare con l’azienda. Questa designazione, tipicamente riservata a entità straniere ritenute minacce alla sicurezza nazionale, sottolinea la gravità della posizione dell’amministrazione.
Il nocciolo del conflitto è incentrato sulla richiesta del Pentagono di “tutti gli usi leciti” dell’intelligenza artificiale, compreso il potenziale per sistemi d’arma completamente autonomi o sorveglianza di massa. Anthropic ha resistito, sostenendo che un tale dispiegamento senza restrizioni avrebbe potuto portare a risultati pericolosi. Mentre il Pentagono insiste di non avere piani attuali per queste applicazioni, i funzionari hanno chiarito che si oppongono al fatto che un’azienda tecnologica civile imponga l’uso militare della tecnologia critica.
L’ascesa dell’intelligenza artificiale nella difesa e il ruolo complicato della Silicon Valley
Anthropic è stato il primo grande laboratorio di intelligenza artificiale a collaborare con le forze armate statunitensi, assicurandosi un accordo da 200 milioni di dollari l’anno scorso per sviluppare modelli limitati noti come Claude Gov. Google, OpenAI e xAI hanno seguito l’esempio, ma Anthropic rimane l’unica azienda che attualmente lavora con sistemi classificati.
La mossa del Pentagono evidenzia una tendenza più ampia: il crescente abbraccio dei contratti di difesa da parte della Silicon Valley. Questo cambiamento ha portato a tensioni interne al settore, con centinaia di dipendenti di OpenAI e Google che hanno firmato una lettera aperta a sostegno di Anthropic e hanno criticato le proprie aziende per aver rimosso le restrizioni sull’uso dell’IA militare. Il CEO di OpenAI Sam Altman ha dichiarato che la sua azienda condivide le preoccupazioni di Anthropic sulle armi completamente autonome e sulla sorveglianza di massa, ma intende negoziare un accordo per continuare a lavorare con il Pentagono.
Controversie sottostanti e punti di vista degli esperti
La disputa è emersa pubblicamente dopo che sono emerse notizie secondo cui i leader militari statunitensi avrebbero utilizzato il modello Claude di Anthropic per assistere nella pianificazione di un’operazione per catturare il presidente del Venezuela Nicolás Maduro. Anthropic nega di aver interferito con l’uso della sua tecnologia da parte del Pentagono, ma l’incidente ha innescato un’escalation di retorica da entrambe le parti.
Alcuni esperti sostengono che il conflitto sia in gran parte simbolico. Michael Horowitz, ex funzionario del Pentagono, suggerisce che la disputa riguarda “casi d’uso teorici che per ora non sono sul tavolo”, con Anthropic che ha supportato tutte le attuali applicazioni DoD della sua tecnologia.
Tuttavia, le azioni dell’amministrazione segnalano una linea ferma contro la percezione di un eccessivo intervento da parte delle aziende negli affari militari. Anthropic è stata fondata sul principio della sicurezza dell’IA e il suo CEO, Dario Amodei, ha messo in guardia contro i pericoli di uno sviluppo incontrollato dell’IA. La risposta dell’amministrazione suggerisce che tali preoccupazioni non determineranno la politica di sicurezza nazionale.
Conclusione
Il divieto da parte dell’amministrazione Trump degli strumenti di intelligenza artificiale di Anthropic segna una significativa escalation nel dibattito sul ruolo delle aziende tecnologiche private nelle applicazioni militari. La mossa sottolinea la volontà dell’amministrazione di affermare il controllo sull’implementazione dell’intelligenza artificiale e di dare priorità alle considerazioni di sicurezza nazionale rispetto alle obiezioni aziendali. Il conflitto probabilmente rimodellerà il panorama delle partnership per la difesa dell’intelligenza artificiale, costringendo le aziende a navigare in un contesto normativo più assertivo.
