OpenAI e il Pentagono: una posizione mutevole sull’intelligenza artificiale militare

4

OpenAI, la società dietro ChatGPT, ha silenziosamente approfondito i suoi legami con l’esercito americano nonostante in precedenza avesse vietato tali collaborazioni. Il recente annuncio di un accordo con il Pentagono, a seguito di un contratto fallito con Anthropic, ha suscitato critiche interne e domande sull’evoluzione delle politiche dell’azienda.
Non si tratta solo di un accordo; rivela un modello di OpenAI che naviga in un terreno etico oscuro mentre interagisce con le agenzie di difesa.

Il cambiamento politico: dal divieto alla partnership

Nel 2023, OpenAI ha esplicitamente vietato l’accesso militare ai suoi modelli di intelligenza artificiale. Tuttavia, il Pentagono stava già sperimentando la tecnologia OpenAI tramite il servizio Azure OpenAI di Microsoft, partner Microsoft di lunga data e investitore di OpenAI. Secondo quanto riferito, i dipendenti hanno osservato funzionari del Pentagono visitare la sede di OpenAI mentre il divieto era in vigore, creando confusione sull’applicazione delle politiche.

OpenAI e Microsoft sostengono che i prodotti Azure OpenAI non sono mai stati soggetti alle restrizioni di utilizzo di OpenAI, una distinzione che ha consentito all’accesso militare di continuare dietro le quinte. Entro gennaio 2024, OpenAI ha rimosso silenziosamente il divieto generale di uso militare, e i dipendenti sono venuti a conoscenza del cambiamento attraverso segnalazioni esterne piuttosto che comunicazioni interne.

Espansione nella difesa: Anduril e oltre

Da allora OpenAI ha collaborato con Anduril per sviluppare sistemi di intelligenza artificiale per “missioni di sicurezza nazionale”. Inizialmente concepita come limitata a carichi di lavoro non classificati, questa partnership contrasta con l’accordo di Anthropic con Palantir, che prevedeva applicazioni militari classificate. OpenAI ha addirittura rifiutato l’offerta di Palantir di aderire al programma “FedStart”, ritenendola troppo rischiosa.

Nonostante il dibattito interno (alcuni dipendenti hanno messo in dubbio l’affidabilità dell’intelligenza artificiale di OpenAI per compiti critici), l’azienda si è spostata ulteriormente sulla difesa. Il CEO Sam Altman ha dichiarato pubblicamente il proprio sostegno all’impiego responsabile dell’intelligenza artificiale, perseguendo contemporaneamente contratti con la NATO, segnalando un’ambizione più ampia di vendere i suoi modelli alle organizzazioni di difesa internazionali.

Opacità e supervisione

La mancanza di trasparenza che circonda queste partnership è una preoccupazione significativa. Sarah Shoker, ex responsabile geopolitica di OpenAI, sostiene che l’opacità dell’intelligenza artificiale militare ostacola la comprensione dei suoi effetti nel mondo reale, creando “scatole nere fino in fondo”. Gli esperti suggeriscono che il Pentagono potrebbe già utilizzare l’intelligenza artificiale di OpenAI per la sorveglianza legale, come l’acquisto e l’analisi dei dati degli utenti.

OpenAI ha modificato il suo accordo in risposta ad alcune preoccupazioni, ma senza una completa divulgazione il pubblico dovrà fare affidamento sulla parola dell’azienda. Ciò solleva interrogativi sulla responsabilità e sul potenziale di applicazioni militari incontrollate dell’IA.

In sostanza, OpenAI ha barattato la sua posizione etica iniziale con un impegno più profondo nel settore della difesa. Questo cambiamento evidenzia la tensione tra interessi commerciali, preoccupazioni per la sicurezza nazionale e il ruolo in evoluzione dell’IA nella guerra. La mancanza di controllo pubblico garantisce che tutte le implicazioni di queste partnership rimarranno in gran parte sconosciute, lasciando i civili e le zone di conflitto vulnerabili allo spiegamento incontrollato dell’intelligenza artificiale militare.