OpenAI, het bedrijf achter ChatGPT, heeft stilletjes zijn banden met het Amerikaanse leger verdiept, ondanks het feit dat dergelijke samenwerkingen eerder werden verboden. De recente aankondiging van een deal met het Pentagon, na een mislukt contract met Anthropic, heeft geleid tot interne kritiek en vragen over het evoluerende beleid van het bedrijf.
Dit gaat niet slechts over één deal; het onthult een patroon waarin OpenAI zich op duistere ethische gronden begeeft terwijl ze samenwerken met defensieorganisaties.
De beleidsverschuiving: van verbod naar partnerschap
In 2023 verbood OpenAI expliciet militaire toegang tot zijn AI-modellen. Het Pentagon experimenteerde echter al met OpenAI-technologie via de Azure OpenAI Service van Microsoft, een al lang bestaande Microsoft-partner en OpenAI-investeerder. Medewerkers zouden hebben gezien dat ambtenaren van het Pentagon het hoofdkantoor van OpenAI bezochten terwijl het verbod van kracht was, waardoor verwarring ontstond over de handhaving van het beleid.
OpenAI en Microsoft beweren dat Azure OpenAI-producten nooit onderworpen waren aan de gebruiksbeperkingen van OpenAI, een onderscheid waardoor militaire toegang achter de schermen kon doorgaan. In januari 2024 hief OpenAI stilletjes het algemene verbod op militair gebruik op, waarbij werknemers via externe rapportage over de verandering leerden in plaats van interne communicatie.
Uitbreiding naar defensie: Anduril en verder
OpenAI werkt sindsdien samen met Anduril om AI-systemen te ontwikkelen voor ‘nationale veiligheidsmissies’. Aanvankelijk beperkt tot niet-geclassificeerde werklasten, staat dit partnerschap in schril contrast met de deal van Anthropic met Palantir, waarbij geheime militaire toepassingen betrokken waren. OpenAI sloeg zelfs het aanbod van Palantir om deel te nemen aan hun “FedStart”-programma af, omdat ze het te riskant vonden.
Ondanks interne discussies (sommige medewerkers twijfelden aan de betrouwbaarheid van OpenAI’s AI voor kritieke taken) is het bedrijf verder opgeschoven in de defensie. CEO Sam Altman heeft publiekelijk zijn steun uitgesproken voor een verantwoorde inzet van AI en tegelijkertijd contracten met de NAVO nagestreefd, waarmee hij een bredere ambitie signaleert om zijn modellen aan internationale defensieorganisaties te verkopen.
Dekking en overzicht
Het gebrek aan transparantie rond deze partnerschappen is een groot probleem. Voormalig geopolitiek hoofd van OpenAI, Sarah Shoker, stelt dat de ondoorzichtigheid van militaire AI het begrip van de effecten ervan in de echte wereld belemmert, waardoor ‘zwarte dozen tot in de puntjes’ ontstaan. Deskundigen suggereren dat het Pentagon de AI van OpenAI mogelijk al gebruikt voor juridisch toezicht, zoals het kopen en analyseren van gebruikersgegevens.
OpenAI heeft zijn overeenkomst gewijzigd als reactie op enkele zorgen, maar zonder volledige openbaarmaking moet het publiek op het woord van het bedrijf vertrouwen. Dit roept vragen op over de verantwoordingsplicht en het potentieel voor ongecontroleerde militaire toepassingen van AI.
In wezen heeft OpenAI zijn aanvankelijke ethische houding ingeruild voor een diepere betrokkenheid bij de defensiesector. Deze verschuiving benadrukt de spanning tussen commerciële belangen, zorgen over de nationale veiligheid en de zich ontwikkelende rol van AI in oorlogsvoering. Het gebrek aan publiek toezicht zorgt ervoor dat de volledige implicaties van deze partnerschappen grotendeels onbekend zullen blijven, waardoor burgers en conflictgebieden kwetsbaar blijven voor de ongecontroleerde inzet van militaire AI.
