De regering-Trump heeft stappen ondernomen om het gebruik van de kunstmatige intelligentie-instrumenten van Anthropic bij alle federale agentschappen te verbieden, waardoor een geschil over militaire toepassingen van de technologie is geëscaleerd. Het besluit, dat vrijdag werd aangekondigd, volgt op wekenlange botsingen tussen de regering en de AI-startup over beperkingen op de manier waarop AI kan worden ingezet.
President Trump vaardigde de richtlijn uit en stelde dat Anthropic had geprobeerd het ministerie van Defensie te ‘sterk bewapenen’ en dat deze stap noodzakelijk was om de Amerikaanse belangen te beschermen. Agentschappen krijgen een uitfaseringsperiode van zes maanden om hieraan te voldoen, wat mogelijk verdere onderhandelingen mogelijk maakt.
Escalerend conflict met gevolgen voor de nationale veiligheid
Het verbod gaat verder dan het simpelweg stopzetten van het gebruik. Minister van Defensie Pete Hegseth bestempelde Anthropic als een ‘toeleveringsketenrisico’, waardoor het Amerikaanse leger en zijn aannemers feitelijk werden uitgesloten van samenwerking met het bedrijf. Deze benaming, die doorgaans voorbehouden is aan buitenlandse entiteiten die als een bedreiging voor de nationale veiligheid worden beschouwd, onderstreept de ernst van het standpunt van de regering.
De kern van het conflict draait om de eis van het Pentagon voor ‘al het legale gebruik’ van AI, inclusief het potentieel voor volledig autonome wapensystemen of massasurveillance. Anthropic verzette zich hiertegen, met het argument dat een dergelijke onbeperkte inzet tot gevaarlijke resultaten zou kunnen leiden. Hoewel het Pentagon volhoudt dat het momenteel geen plannen heeft voor deze toepassingen, hebben functionarissen duidelijk gemaakt dat ze er bezwaar tegen hebben dat een civiel technologiebedrijf het militaire gebruik van kritieke technologie dicteert.
De opkomst van AI in de defensie en de ingewikkelde rol van Silicon Valley
Anthropic was het eerste grote AI-laboratorium dat samenwerkte met het Amerikaanse leger en vorig jaar een deal van $ 200 miljoen binnenhaalde voor de ontwikkeling van beperkte modellen, bekend als Claude Gov. Google, OpenAI en xAI volgden dit voorbeeld, maar Anthropic blijft het enige bedrijf dat momenteel met geheime systemen werkt.
De stap van het Pentagon benadrukt een bredere trend: de toenemende omarming van defensiecontracten in Silicon Valley. Deze verschuiving heeft geleid tot interne spanningen binnen de sector, waarbij honderden medewerkers van OpenAI en Google een open brief ondertekenden waarin ze Anthropic steunden en hun eigen bedrijven bekritiseerden voor het opheffen van de beperkingen op militair AI-gebruik. OpenAI-CEO Sam Altman heeft verklaard dat zijn bedrijf de zorgen van Anthropic over volledig autonome wapens en massasurveillance deelt, maar van plan is te onderhandelen over een deal om te blijven samenwerken met het Pentagon.
Onderliggende geschillen en perspectieven van deskundigen
Het geschil kwam publiekelijk aan de oppervlakte nadat berichten naar voren kwamen dat Amerikaanse militaire leiders het Claude-model van Anthropic gebruikten om te helpen bij het plannen van een operatie om de Venezolaanse president Nicolás Maduro gevangen te nemen. Anthropic ontkent dat het zich bemoeit met het gebruik van zijn technologie door het Pentagon, maar het incident veroorzaakte escalerende retoriek van beide kanten.
Sommige deskundigen beweren dat het conflict grotendeels symbolisch is. Michael Horowitz, een voormalige functionaris van het Pentagon, suggereert dat het geschil gaat over “theoretische gebruiksscenario’s die voorlopig niet op tafel liggen”, waarbij Anthropic alle huidige DoD-toepassingen van zijn technologie heeft ondersteund.
De acties van de regering wijzen echter op een stevige lijn tegen de vermeende overmacht van het bedrijfsleven in militaire aangelegenheden. Anthropic is gebaseerd op het principe van AI-veiligheid en de CEO, Dario Amodei, heeft gewaarschuwd voor de gevaren van een ongecontroleerde AI-ontwikkeling. Uit het antwoord van de regering blijkt dat dergelijke zorgen het nationale veiligheidsbeleid niet zullen dicteren.
Conclusie
Het verbod van de regering-Trump op de AI-tools van Anthropic markeert een aanzienlijke escalatie in het debat over de rol van particuliere technologiebedrijven in militaire toepassingen. Deze stap onderstreept de bereidheid van de regering om de controle over de inzet van AI uit te oefenen en prioriteit te geven aan nationale veiligheidsoverwegingen boven zakelijke bezwaren. Het conflict zal waarschijnlijk het landschap van AI-defensiepartnerschappen opnieuw vormgeven, waardoor bedrijven gedwongen zullen worden om door een assertiever regelgevingsklimaat te navigeren.
