OpenAI dan Pentagon: Perubahan Sikap terhadap AI Militer

9

OpenAI, perusahaan di balik ChatGPT, diam-diam telah memperdalam hubungannya dengan militer AS meskipun sebelumnya melarang kolaborasi semacam itu. Pengumuman kesepakatan dengan Pentagon baru-baru ini, menyusul kegagalan kontrak dengan Anthropic, telah memicu kritik dan pertanyaan internal mengenai kebijakan perusahaan yang terus berkembang.
Ini bukan hanya tentang satu kesepakatan; hal ini mengungkapkan pola OpenAI yang menavigasi landasan etika yang suram saat berinteraksi dengan lembaga pertahanan.

Pergeseran Kebijakan: Dari Larangan ke Kemitraan

Pada tahun 2023, OpenAI secara eksplisit melarang akses militer ke model AI-nya. Namun, Pentagon sudah bereksperimen dengan teknologi OpenAI melalui Layanan Azure OpenAI Microsoft—yang merupakan mitra lama Microsoft dan investor OpenAI. Para karyawan dilaporkan mengamati pejabat Pentagon mengunjungi kantor pusat OpenAI saat larangan tersebut berlaku, sehingga menimbulkan kebingungan mengenai penegakan kebijakan.

OpenAI dan Microsoft berpendapat bahwa produk Azure OpenAI tidak pernah tunduk pada pembatasan penggunaan OpenAI, suatu perbedaan yang memungkinkan akses militer terus berlanjut di belakang layar. Pada bulan Januari 2024, OpenAI diam-diam menghapus larangan penggunaan militer, dan karyawan belajar tentang perubahan tersebut melalui pelaporan dari luar, bukan melalui komunikasi internal.

Ekspansi ke Pertahanan: Anduril dan Selanjutnya

OpenAI telah bermitra dengan Anduril untuk mengembangkan sistem AI untuk “misi keamanan nasional”. Awalnya dibingkai sebagai terbatas pada beban kerja yang tidak terklasifikasi, kemitraan ini kontras dengan kesepakatan Anthropic dengan Palantir, yang melibatkan aplikasi militer rahasia. OpenAI bahkan menolak tawaran Palantir untuk bergabung dengan program “FedStart” mereka karena dianggap terlalu berisiko.

Meskipun ada perdebatan internal—beberapa karyawan mempertanyakan keandalan AI OpenAI untuk tugas-tugas penting—perusahaan telah melangkah lebih jauh ke bidang pertahanan. CEO Sam Altman secara terbuka menyatakan dukungannya terhadap penerapan AI yang bertanggung jawab sekaligus mengejar kontrak dengan NATO, yang menandakan ambisi yang lebih luas untuk menjual model AI tersebut ke organisasi pertahanan internasional.

Opasitas dan Pengawasan

Kurangnya transparansi seputar kemitraan ini merupakan kekhawatiran yang signifikan. Mantan kepala geopolitik OpenAI Sarah Shoker berpendapat bahwa ketidakjelasan AI militer menghalangi pemahaman tentang dampaknya di dunia nyata, sehingga menciptakan “kotak hitam sepenuhnya.” Para ahli berpendapat bahwa Pentagon mungkin sudah menggunakan AI OpenAI untuk pengawasan hukum, seperti membeli dan menganalisis data pengguna.

OpenAI telah mengubah perjanjiannya sebagai tanggapan atas beberapa kekhawatiran, namun tanpa pengungkapan penuh, publik harus bergantung pada perkataan perusahaan. Hal ini menimbulkan pertanyaan tentang akuntabilitas dan potensi penerapan AI di bidang militer yang tidak terkendali.

Intinya, OpenAI telah menukar pendirian etis awalnya dengan keterlibatan yang lebih mendalam dengan sektor pertahanan. Pergeseran ini menyoroti ketegangan antara kepentingan komersial, masalah keamanan nasional, dan peran AI yang terus berkembang dalam peperangan. Kurangnya pengawasan publik memastikan bahwa dampak penuh dari kemitraan ini sebagian besar masih belum diketahui, sehingga membuat warga sipil dan zona konflik rentan terhadap penyebaran AI militer yang tidak terkendali.