Компанія OpenAI, що стоїть за ChatGPT, непомітно поглибила зв’язки з американськими військовими, незважаючи на попередню заборону на подібні співробітництва. Недавнє оголошення про угоду з Пентагоном, що послідувало за невдалою спробою укладання контракту з Anthropic, викликало внутрішню критику та питання про політику компанії, що еволюціонує.
Це не просто одна угода; вона демонструє систематичну практику OpenAI, що лавірує на слизькому етичному ґрунті, взаємодіючи при цьому з оборонними відомствами.
Зсув у політиці: від заборони до партнерства
У 2023 році OpenAI прямо заборонила військовим доступ до своїх моделей ІІ. Однак Пентагон вже експериментував із технологіями OpenAI через Microsoft Azure OpenAI Service – давнього партнера та інвестора OpenAI. Співробітники повідомляли про відвідування представниками Пентагону штаб-квартири OpenAI під час дії заборони, що створювало плутанину щодо дотримання політики.
OpenAI та Microsoft стверджують, що продукти Azure OpenAI ніколи не підпадали під обмеження на використання OpenAI, що дозволило військовим продовжувати доступ за лаштунками. До січня 2024 року OpenAI тихо скасувала загальну заборону на військове використання, про що співробітники дізналися із зовнішніх репортажів, а не з внутрішніх комунікацій.
Розширення у сфері оборони: Anduril і не тільки
OpenAI згодом уклала партнерство з Anduril для розробки систем ІІ для “національних місій безпеки”. Спочатку це партнерство позиціонувалося як обмежене незасекреченими завданнями, що контрастує з угодою Anthropic з Palantir, яка включала секретні військові програми. OpenAI навіть відхилила пропозицію Palantir приєднатися до їхньої програми “FedStart”, вважаючи це занадто ризикованою.
Незважаючи на внутрішні дебати (деякі співробітники сумнівалися у надійності ІІ OpenAI для критично важливих завдань), компанія рухається дедалі глибше у сферу оборони. Генеральний директор Сем Альтман публічно заявив про підтримку відповідального впровадження ІІ, одночасно укладаючи контракти з НАТО, що сигналізує про ширші амбіції щодо продажу своїх моделей міжнародним оборонним організаціям.
Непрозорість та нагляд
Відсутність прозорості щодо цих партнерств викликає серйозне занепокоєння. Колишній глава геополітичного відділу OpenAI Сара Шокер стверджує, що непрозорість військового ІІ перешкоджає розумінню його реальних наслідків, створюючи “чорні скриньки на всіх рівнях”. Експерти припускають, що Пентагон може вже використовувати ІІ OpenAI для законного стеження, наприклад, для купівлі та аналізу даних користувача.
OpenAI внесла поправки до своєї угоди у відповідь деякі побоювання, але без повної прозорості громадськості доводиться покладатися на слова компанії. Це ставить під питання підзвітність та потенціал безконтрольного військового застосування ІІ.
По суті, OpenAI пожертвувала своєю початковою етичною позицією заради більш глибокого залучення в оборонний сектор. Цей зсув підкреслює напруженість між комерційними інтересами, питаннями національної безпеки та еволюційною роллю ІІ у війні. Відсутність громадського нагляду гарантує, що повні наслідки цих партнерств залишаться значною мірою невідомими, залишаючи громадянське населення та зони конфліктів уразливими для безконтрольного розгортання військового ІІ.


























































