OpenAI, firma stojąca za ChatGPT, po cichu pogłębiła swoje powiązania z armią amerykańską, pomimo wcześniejszego zakazu takiej współpracy. Niedawne ogłoszenie umowy z Pentagonem, które nastąpiło po nieudanej próbie zawarcia umowy z Anthropic, wywołało wewnętrzną krytykę i pytania dotyczące ewoluującej polityki firmy.
To nie jest tylko jedna umowa; demonstruje systematyczną praktykę OpenAI polegającą na poruszaniu się po śliskim etycznie terenie podczas interakcji z agencjami obrony.
Zmiana polityki: od zakazu do partnerstwa
W 2023 r. OpenAI wyraźnie zakazał wojsku dostępu do swoich modeli sztucznej inteligencji. Jednak Pentagon eksperymentował już z technologiami OpenAI za pośrednictwem usługi Microsoft Azure OpenAI Service, wieloletniego partnera i inwestora OpenAI. Pracownicy zgłosili, że urzędnicy Pentagonu odwiedzali siedzibę OpenAI podczas zakazu, co spowodowało zamieszanie co do tego, czy polityka była egzekwowana.
OpenAI i Microsoft twierdzą, że produkty Azure OpenAI nigdy nie podlegały ograniczeniom OpenAI, umożliwiając wojsku dalszy dostęp za kulisami. Do stycznia 2024 r. OpenAI po cichu zniosła całkowity zakaz zastosowań wojskowych, o czym pracownicy dowiedzieli się z raportów zewnętrznych, a nie z komunikacji wewnętrznej.
Rozszerzenie obronne: Anduril i nie tylko
Następnie OpenAI nawiązał współpracę z Andurilem w celu opracowania systemów sztucznej inteligencji na potrzeby „misji bezpieczeństwa narodowego”. Początkowo postrzegano partnerstwo jako ograniczone do niesklasyfikowanych zadań, w przeciwieństwie do umowy Anthropic z Palantirem, która obejmowała tajne zastosowania wojskowe. OpenAI odrzuciło nawet ofertę Palantira dotyczącą przyłączenia się do ich programu „FedStart”, uznając to za zbyt ryzykowne.
Pomimo wewnętrznej debaty (część pracowników kwestionowała niezawodność AI OpenAI w przypadku zadań o znaczeniu krytycznym), firma wkracza głębiej w przestrzeń obronną. Dyrektor generalny Sam Altman publicznie zadeklarował wsparcie dla odpowiedzialnego wdrażania sztucznej inteligencji przy jednoczesnym zabezpieczaniu kontraktów z NATO, sygnalizując szersze ambicje sprzedaży swoich modeli międzynarodowym organizacjom obronnym.
Nieprzejrzystość i nadzór
Poważnym problemem jest brak przejrzystości w odniesieniu do tych partnerstw. Była szefowa geopolityki OpenAI, Sarah Shoker, argumentuje, że nieprzejrzystość wojskowej sztucznej inteligencji uniemożliwia zrozumienie jej implikacji w świecie rzeczywistym, tworząc „czarne skrzynki na każdym poziomie”. Eksperci spekulują, że Pentagon może już wykorzystywać OpenAI do zgodnego z prawem nadzoru, takiego jak zakup i analiza danych użytkowników.
OpenAI zmieniło swoją umowę w odpowiedzi na pewne wątpliwości, ale bez pełnej przejrzystości opinia publiczna musi polegać na słowie firmy. Stawia to pod znakiem zapytania odpowiedzialność i potencjał niekontrolowanego wykorzystania sztucznej inteligencji do celów wojskowych.
Zasadniczo OpenAI poświęciło swoje pierwotne stanowisko etyczne na rzecz głębszego zaangażowania w sektorze obronnym. Ta zmiana podkreśla napięcie między interesami handlowymi, obawami dotyczącymi bezpieczeństwa narodowego i ewoluującą rolą sztucznej inteligencji w działaniach wojennych. Brak nadzoru publicznego gwarantuje, że pełne konsekwencje tych partnerstw pozostaną w dużej mierze nieznane, narażając ludność cywilną i strefy konfliktu na niekontrolowane rozmieszczenie wojskowej sztucznej inteligencji.
