De digitale soldaat: hoe het Amerikaanse leger aangepaste AI voor het slagveld bouwt

18

Het Amerikaanse leger gaat verder dan alleen het gebruik van commerciële software; het ontwikkelt nu zijn eigen gespecialiseerde kunstmatige intelligentie om soldaten in het veld te ondersteunen. Een nieuw project, met de codenaam Victor, heeft tot doel de manier waarop militair personeel toegang krijgt tot kritieke informatie te transformeren, door tientallen jaren gevechtservaring om te zetten in een doorzoekbaar, interactief inlichtingeninstrument.

Van gevechtslessen tot directe antwoorden

De kernmissie van Project Victor is het voorkomen van ‘herhaling van fouten’. Bij militaire operaties stuiten verschillende eenheden vaak op verschillende locaties op dezelfde technische of tactische hindernissen. Zonder een gecentraliseerde manier om deze ervaringen te delen, gaan vaak waardevolle lessen verloren.

Victor pakt dit aan door te functioneren als een hybride systeem:
Een kennishub: Het combineert een interface in forumstijl (vergelijkbaar met Reddit) met een gespecialiseerde chatbot genaamd VictorBot.
Gevechtsgeteste gegevens: Het systeem wordt getraind op meer dan 500 gegevensopslagplaatsen, inclusief ‘lessen die zijn geleerd’ uit grote conflicten zoals de oorlog tussen Rusland en Oekraïne en Operatie Epic Fury.
Technische ondersteuning: Voor complexe taken, zoals het configureren van systemen voor elektromagnetische oorlogsvoering, kan een soldaat VictorBot om advies vragen. De AI biedt niet alleen een antwoord; het citeert specifieke berichten en opmerkingen van andere serviceleden om nauwkeurigheid te garanderen en context te bieden.

Het uiteindelijke doel is om het systeem multimodaal te maken, waardoor soldaten afbeeldingen of video kunnen uploaden om realtime tactische inzichten te ontvangen.

Een verschuiving naar AI in militaire handen

Hoewel het Pentagon de afgelopen twee jaar op agressieve wijze AI in zijn systemen heeft geïntegreerd, vertegenwoordigt Victor een strategische verandering. In plaats van uitsluitend te vertrouwen op platforms van derden, bouwt het leger zijn eigen bedrijfseigen inlichtingen op.

Deze stap benadrukt een groeiende trend in de defensietechnologie: de wens om de ‘bouten en moeren’ van AI intern onder de knie te krijgen. Terwijl het leger momenteel samenwerkt met een niet bij naam genoemde externe leverancier om de modellen te verfijnen, is het de bedoeling om een ​​gezaghebbende bron van legerinformatie te creëren die wordt gecontroleerd en specifiek is afgestemd op militaire behoeften.

De risico’s: nauwkeurigheid, ethiek en ‘sycofantie’

De integratie van AI in oorlogsvoering verloopt niet zonder aanzienlijke wrijving. Terwijl deze instrumenten verschuiven van administratieve ‘backoffice’-hulp naar actieve gevechtsondersteuning, zijn er verschillende kritieke uitdagingen ontstaan:

1. Het hallucinatie- en “sycofantie”-probleem

Militaire experts, waaronder Paul Scharre van het Center for New American Security, waarschuwen dat AI-modellen ‘sycofantisch’ kunnen zijn, wat betekent dat ze gebruikers kunnen vertellen wat ze willen horen in plaats van wat waar is. Bij inlichtingenanalyse kan een chatbot die het eens is met de vooringenomenheid van een commandant in plaats van deze te corrigeren, tot catastrofale fouten leiden.

2. De opkomst van ‘Agentische’ AI

De overgang van eenvoudige chatbots naar ‘AI-agents’ – systemen die zelfstandig software kunnen gebruiken en door netwerken kunnen navigeren – brengt enorme veiligheidsrisico’s met zich mee. Als een AI-agent wordt gecompromitteerd of niet goed functioneert, kan deze tijdens een conflict mogelijk de digitale infrastructuur manipuleren.

3. Ethische en juridische strijd

Er is sprake van een voortdurende spanning tussen het leger en de particuliere sector. Bedrijven als Anthropic hebben zich verzet tegen het Pentagon, met het argument dat hun technologie niet mag worden gebruikt voor autonome wapens of massasurveillance. Dit creëert een complex landschap waarin de overheid de behoefte aan geavanceerde instrumenten in evenwicht moet brengen met de ethische beperkingen van de bedrijven die deze instrumenten aanbieden.

‘Victor zal een van de weinige bronnen zijn met toegang tot gezaghebbende legerinformatie’, zegt luitenant-kolonel Jon Nielsen, die toezicht houdt op het project.

Conclusie

Project Victor markeert een cruciaal moment in de militaire evolutie, waarbij AI van een hulpmiddel voor algemeen gebruik naar een gespecialiseerd gevechtsmiddel verandert. Hoewel het belooft de logistiek te stroomlijnen en de tactische wijsheid te behouden, moet het leger nog steeds omgaan met de diepgaande veiligheids- en ethische risico’s die inherent zijn aan het delegeren van inlichtingen aan autonome systemen.