Administracja Trumpa podjęła decyzję o zakazie stosowania narzędzi sztucznej inteligencji firmy Anthropic we wszystkich agencjach federalnych, co zaostrza konflikt dotyczący zastosowań tej technologii w celach wojskowych. Ogłoszona w piątek decyzja jest następstwem tygodniowych sporów między administracją a start-upem AI w związku z ograniczeniami we wdrażaniu sztucznej inteligencji.
Prezydent Trump wydał dyrektywę, stwierdzając, że Anthropic próbuje „przekręcić ramiona” Departamentu Obrony i że posunięcie to jest konieczne w celu ochrony amerykańskich interesów. Agencje otrzymają sześciomiesięczny okres przejściowy, który potencjalnie umożliwi dalsze negocjacje.
Eskalacja konfliktu mającego konsekwencje dla bezpieczeństwa narodowego
Zakaz wykracza poza zwykłe zaprzestanie używania. Sekretarz obrony Pete Hegseth nazwał Anthropic „ryzykiem w łańcuchu dostaw”, skutecznie zakazując amerykańskiej armii i jej wykonawcom współpracy z firmą. Oznaczenie, zarezerwowane zazwyczaj dla podmiotów zagranicznych stwarzających zagrożenie dla bezpieczeństwa narodowego, podkreśla powagę stanowiska administracji.
U podstaw konfliktu leży żądanie Pentagonu dotyczące „pełnego, zgodnego z prawem wykorzystania” sztucznej inteligencji, w tym potencjału w zakresie w pełni autonomicznych systemów uzbrojenia lub masowej inwigilacji. Anthropic stawiał opór, argumentując, że takie nieograniczone rozmieszczenie może prowadzić do niebezpiecznych konsekwencji. Chociaż Pentagon upiera się, że obecnie nie planuje takich zastosowań, urzędnicy jasno dali do zrozumienia, że sprzeciwiają się temu, aby prywatna firma technologiczna dyktowała wojskowe wykorzystanie technologii krytycznych.
Powstanie sztucznej inteligencji w przemyśle obronnym i złożona rola Doliny Krzemowej
Anthropic stało się pierwszym dużym laboratorium zajmującym się sztuczną inteligencją, które nawiązało współpracę z armią amerykańską, zdobywając w zeszłym roku kontrakt o wartości 200 milionów dolarów na opracowanie ograniczonych modeli znanych jako Claude Gov. Następnie poszły Google, OpenAI i xAI, ale Anthropic pozostaje jedyną firmą obecnie pracującą z tajnymi systemami.
Posunięcie Pentagonu podkreśla szerszy trend: rosnący apetyt Doliny Krzemowej na kontrakty obronne. Ta zmiana doprowadziła do wewnętrznych kontrowersji w branży, a setki pracowników OpenAI i Google podpisały list otwarty popierający Anthropic i krytykując własne firmy za zniesienie ograniczeń dotyczących wojskowego wykorzystania sztucznej inteligencji. Dyrektor generalny OpenAI Sam Altman powiedział, że jego firma podziela obawy Anthropic dotyczące w pełni autonomicznej broni i masowej inwigilacji, ale zamierza negocjować umowę w sprawie dalszej współpracy z Pentagonem.
Podstawowe kontrowersje i opinie ekspertów
Konflikt wyszedł na światło dzienne po doniesieniach, że amerykańscy przywódcy wojskowi wykorzystali model Claude firmy Anthropic do pomocy w zaplanowaniu operacji mającej na celu schwytanie prezydenta Wenezueli Nicolasa Maduro. Anthropic zaprzeczył, jakoby ingerował w wykorzystanie jego technologii przez Pentagon, ale incydent wywołał eskalację retoryki po obu stronach.
Część ekspertów twierdzi, że konflikt ma w dużej mierze charakter symboliczny. Michael Horowitz, były urzędnik Pentagonu, sugeruje, że spór dotyczy „teoretycznych przypadków użycia, które nie są jeszcze ujęte w porządku obrad”, przy czym Anthropic wspiera wszystkie obecne zastosowania swojej technologii przez Departament Obrony.
Działania administracji sygnalizują jednak twarde stanowisko wobec rzekomej ingerencji korporacji w sprawy wojskowe. Firma Anthropic powstała w oparciu o zasadę bezpieczeństwa sztucznej inteligencji, a jej dyrektor generalny Dario Amodei przestrzegł przed niebezpieczeństwami wynikającymi z niekontrolowanego rozwoju sztucznej inteligencji. Odpowiedź administracji sugeruje, że takie obawy nie będą kierować polityką bezpieczeństwa narodowego.
Wniosek
Nałożony przez administrację Trumpa zakaz stosowania narzędzi sztucznej inteligencji firmy Anthropic oznacza znaczną eskalację debaty na temat roli prywatnych firm technologicznych w zastosowaniach wojskowych. Posunięcie to podkreśla chęć administracji do zapewnienia kontroli nad wdrażaniem sztucznej inteligencji i przedłożenia kwestii bezpieczeństwa narodowego nad zastrzeżeniami korporacji. Konflikt prawdopodobnie zmieni krajobraz partnerstw w zakresie sztucznej inteligencji i obronności, zmuszając firmy do poruszania się w bardziej asertywnym środowisku regulacyjnym.





























