OpenAI, společnost stojící za ChatGPT, v tichosti prohloubila své vazby s americkou armádou, navzdory předchozímu zákazu takové spolupráce. Nedávné oznámení dohody s Pentagonem, které následovalo po neúspěšném pokusu o uzavření smlouvy se společností Anthropic, vyvolalo vnitřní kritiku a otázky týkající se vyvíjejících se politik společnosti.
Není to jen jedna dohoda; demonstruje systematickou praxi OpenAI při navigaci na kluzkém etickém terénu při interakci s obrannými agenturami.
Posun politiky: od zákazu k partnerství
V roce 2023 OpenAI výslovně zakázal armádě přístup k jejím modelům AI. Pentagon však již experimentoval s technologiemi OpenAI prostřednictvím Microsoft Azure OpenAI Service, dlouhodobého partnera a investora OpenAI. Zaměstnanci hlásili, že úředníci Pentagonu navštívili centrálu OpenAI během zákazu, což vyvolalo zmatek ohledně toho, zda byla tato politika vynucována.
OpenAI a Microsoft tvrdí, že produkty Azure OpenAI nikdy nepodléhaly omezením OpenAI, což armádě umožnilo pokračovat v přístupu ze zákulisí. Do ledna 2024 OpenAI v tichosti zrušila všeobecný zákaz vojenského použití, který se zaměstnanci dozvěděli spíše z externích zpráv než z interní komunikace.
Rozšíření obrany: Anduril a další
OpenAI následně spolupracovala s Andurilem na vývoji systémů AI pro „národní bezpečnostní mise“. Partnerství bylo zpočátku umístěno jako omezené na neklasifikované úkoly, na rozdíl od dohody Anthropic s Palantirem, která zahrnovala utajované vojenské aplikace. OpenAI dokonce odmítlo Palantirovu nabídku připojit se k jejich programu „FedStart“ a považovalo to za příliš riskantní.
Navzdory interní debatě (někteří zaměstnanci zpochybňovali spolehlivost AI OpenAI pro kritické úkoly) se společnost posouvá hlouběji do obranného prostoru. Generální ředitel Sam Altman veřejně přislíbil podporu zodpovědnému nasazení AI a zároveň zajistil smlouvy s NATO, což signalizuje širší ambice prodávat své modely mezinárodním obranným organizacím.
Neprůhlednost a dohled
Nedostatek transparentnosti ohledně těchto partnerství je vážným problémem. Bývalá šéfka geopolitiky OpenAI, Sarah Shoker, tvrdí, že neprůhlednost vojenské umělé inteligence brání pochopení jejích důsledků v reálném světě a vytváří „černé skříňky na každé úrovni“. Odborníci spekulují, že Pentagon již možná používá OpenAI k zákonnému sledování, jako je nákup a analýza uživatelských dat.
OpenAI v reakci na některé obavy upravila svou dohodu, ale bez úplné transparentnosti se veřejnost musí spolehnout na slovo společnosti. To zpochybňuje odpovědnost a potenciál nekontrolovaného vojenského použití AI.
OpenAI v podstatě obětovala svůj původní etický postoj pro hlubší zapojení do obranného sektoru. Tento posun zdůrazňuje napětí mezi komerčními zájmy, obavami o národní bezpečnost a vyvíjející se rolí AI ve válčení. Nedostatek veřejného dohledu zajišťuje, že plné důsledky těchto partnerství zůstanou do značné míry neznámé, takže civilní obyvatelstvo a konfliktní zóny budou zranitelné vůči nekontrolovanému nasazení vojenské umělé inteligence.
