Anthropic Tolak AI Otonom Mematikan, Pentagon Khawatirkan Kebijakan

Oleh VOXBLICK

Kamis, 05 Maret 2026 - 09.15 WIB
Anthropic Tolak AI Otonom Mematikan, Pentagon Khawatirkan Kebijakan
Anthropic dan Pentagon soal AI militer (Foto oleh Markus Winkler)

VOXBLICK.COM - Anthropic, perusahaan kecerdasan buatan asal Amerika Serikat, secara tegas menyatakan penolakannya terhadap penggunaan sistem AI otonom untuk operasi mematikan tanpa pengawasan manusia. Keputusan ini diumumkan di tengah meningkatnya minat militer global, termasuk Pentagon, terhadap teknologi kecerdasan buatan otonom dalam sektor pertahanan. Sikap Anthropic menimbulkan kekhawatiran di Departemen Pertahanan AS terkait masa depan pengembangan AI militer dan efektivitas kebijakan di bidang keamanan nasional.

Sikap Anthropic: AI Otonom Bersenjata Bukan Pilihan

Pernyataan resmi Anthropic menyebutkan bahwa mereka tidak akan menyediakan atau mengembangkan sistem AI yang dapat melakukan aksi mematikan tanpa intervensi manusia.

“Kami percaya pengawasan manusia tetap mutlak diperlukan dalam setiap pengambilan keputusan yang melibatkan nyawa manusia,” kata juru bicara Anthropic dalam konferensi pers, merujuk pada prinsip keamanan dan etika teknologi.

Sikap ini sejalan dengan seruan berbagai organisasi internasional dan komunitas peneliti AI yang menolak pengembangan lethal autonomous weapon systems (LAWS) atau senjata otonom mematikan. Meski demikian, banyak perusahaan teknologi lain, seperti yang diketahui dari laporan The New York Times, masih membuka peluang kolaborasi dengan sektor militer dalam pengembangan AI untuk pertahanan.

Anthropic Tolak AI Otonom Mematikan, Pentagon Khawatirkan Kebijakan
Anthropic Tolak AI Otonom Mematikan, Pentagon Khawatirkan Kebijakan (Foto oleh Pavel Danilyuk)

Kekhawatiran Pentagon: Efektivitas dan Masa Depan AI Pertahanan

Pentagon, melalui pejabat senior di Defense Innovation Unit, mengungkapkan kekhawatiran bahwa kebijakan Anthropic ini dapat memperlambat pengembangan dan penerapan teknologi AI di lingkungan militer.

“Kami memerlukan solusi AI yang mampu merespons secara cepat dan akurat di medan perang modern, di mana kecepatan pengambilan keputusan sangat krusial,” ujar seorang perwira tinggi Pentagon yang enggan disebutkan namanya dalam wawancara dengan Reuters.

Pentagon telah mengalokasikan anggaran signifikan untuk riset dan pengembangan AI, dengan estimasi mencapai US$ 1,8 miliar pada tahun 2024 (sumber: Department of Defense). Namun, adanya penolakan dari perusahaan AI terkemuka seperti Anthropic menimbulkan pertanyaan mengenai keberlanjutan kolaborasi antara sektor teknologi sipil dan militer di Amerika Serikat.

Alasan Penolakan: Etika dan Risiko Teknologi

Anthropic menegaskan, keputusan mereka didorong oleh kekhawatiran etis dan potensi risiko dari AI otonom yang tidak terkendali. Beberapa alasan utama yang dikemukakan meliputi:

  • Risiko salah deteksi dan tindakan fatal tanpa verifikasi manusia.
  • Potensi eskalasi konflik akibat kesalahan sistem AI.
  • Ketidakjelasan regulasi internasional tentang penggunaan AI mematikan.
  • Ancaman terhadap hak asasi manusia dan prinsip hukum humaniter internasional.

Laporan Amnesty International juga menyoroti ancaman yang dihadirkan oleh senjata otonom, menekankan pentingnya keterlibatan manusia dalam keputusan yang berpotensi mematikan.

Implikasi Lebih Luas: Industri, Regulasi, dan Tata Kelola AI

Penolakan Anthropic terhadap AI otonom mematikan berpotensi memperkuat dorongan untuk menerapkan regulasi lebih ketat di sektor kecerdasan buatan global. Dengan semakin banyak perusahaan teknologi yang mengambil sikap serupa, tren ini bisa mendorong:

  • Penyusunan standar internasional untuk pengawasan manusia dalam penggunaan AI militer.
  • Kolaborasi lintas negara dalam pencegahan penyalahgunaan AI untuk tujuan militer ofensif.
  • Peningkatan transparansi dan tata kelola teknologi tinggi di bidang pertahanan dan keamanan.
  • Meningkatnya kepercayaan publik terhadap pengembangan AI yang bertanggung jawab.

Di sisi lain, keputusan ini juga menantang pelaku industri pertahanan untuk mencari keseimbangan antara inovasi teknologi dan prinsip etika, serta mendorong diskusi lebih lanjut mengenai batasan penggunaan AI di sektor-sektor sensitif.

Perkembangan terbaru ini menegaskan pentingnya tata kelola dan etika dalam pengembangan AI, terutama ketika berkaitan dengan urusan hidup dan mati.

Sikap Anthropic menjadi penanda bahwa tanggung jawab sosial perusahaan teknologi kini menjadi faktor penentu dalam arah kebijakan dan inovasi AI dunia.

Apa Reaksi Anda?

Suka Suka 0
Tidak Suka Tidak Suka 0
Cinta Cinta 0
Lucu Lucu 0
Marah Marah 0
Sedih Sedih 0
Wow Wow 0