Компания OpenAI, стоящая за ChatGPT, незаметно углубила свои связи с американскими военными, несмотря на предыдущий запрет на подобные сотрудничества. Недавнее объявление о сделке с Пентагоном, последовавшее за неудачной попыткой заключения контракта с Anthropic, вызвало внутреннюю критику и вопросы об эволюционирующей политике компании.
Это не просто одна сделка; она демонстрирует систематическую практику OpenAI, лавирующей на скользкой этической почве, взаимодействуя при этом с оборонными ведомствами.
Сдвиг в политике: от запрета к партнерству
В 2023 году OpenAI прямо запретила военным доступ к своим моделям ИИ. Однако Пентагон уже экспериментировал с технологиями OpenAI через Microsoft Azure OpenAI Service – давнего партнера и инвестора OpenAI. Сотрудники сообщали о посещении представителями Пентагона штаб-квартиры OpenAI во время действия запрета, что создавало путаницу в отношении соблюдения политики.
OpenAI и Microsoft утверждают, что продукты Azure OpenAI никогда не подпадали под ограничения на использование OpenAI, что позволило военным продолжать доступ за кулисами. К январю 2024 года OpenAI тихо отменила всеобщий запрет на военное использование, о чем сотрудники узнали из внешних репортажей, а не из внутренних коммуникаций.
Расширение в сфере обороны: Anduril и не только
OpenAI впоследствии заключила партнерство с Anduril для разработки систем ИИ для «национальных миссий безопасности». Изначально это партнерство позиционировалось как ограниченное незасекреченными задачами, что контрастирует со сделкой Anthropic с Palantir, которая включала в себя секретные военные приложения. OpenAI даже отклонила предложение Palantir присоединиться к их программе «FedStart», посчитав это слишком рискованным.
Несмотря на внутренние дебаты (некоторые сотрудники сомневались в надежности ИИ OpenAI для критически важных задач), компания движется все глубже в сферу обороны. Генеральный директор Сэм Альтман публично заявил о поддержке ответственного внедрения ИИ, одновременно заключая контракты с НАТО, что сигнализирует о более широких амбициях по продаже своих моделей международным оборонным организациям.
Непрозрачность и надзор
Отсутствие прозрачности в отношении этих партнерств вызывает серьезную обеспокоенность. Бывший глава геополитического отдела OpenAI Сара Шокер утверждает, что непрозрачность военного ИИ препятствует пониманию его реальных последствий, создавая «черные ящики на всех уровнях». Эксперты предполагают, что Пентагон может уже использовать ИИ OpenAI для законной слежки, например, для покупки и анализа пользовательских данных.
OpenAI внесла поправки в свое соглашение в ответ на некоторые опасения, но без полной прозрачности общественности приходится полагаться на слова компании. Это ставит под вопрос подотчетность и потенциал бесконтрольного военного применения ИИ.
По сути, OpenAI пожертвовала своей первоначальной этической позицией ради более глубокого вовлечения в оборонный сектор. Этот сдвиг подчеркивает напряженность между коммерческими интересами, вопросами национальной безопасности и эволюционирующей ролью ИИ в войне. Отсутствие общественного надзора гарантирует, что полные последствия этих партнерств останутся в значительной степени неизвестными, оставляя гражданское население и зоны конфликтов уязвимыми для бесконтрольного развертывания военного ИИ.
