TeknoLogiz – Sebuah laporan mengejutkan dari Wall Street Journal baru-baru ini mengungkap dugaan penggunaan model kecerdasan buatan (AI) Claude milik Anthropic oleh militer Amerika Serikat. AI canggih ini disebut-sebut terlibat dalam operasi rahasia di Venezuela yang bertujuan untuk menculik Nicolás Maduro, presiden negara tersebut. Tudingan ini sontak menjadi sorotan, mengingat ini adalah kali pertama sebuah model AI dari pengembang ternama diketahui dimanfaatkan dalam misi militer AS yang bersifat rahasia.
Menurut Kementerian Pertahanan Venezuela, operasi yang disebutkan itu melibatkan pengeboman di ibu kota Caracas dan menewaskan 83 orang. Ironisnya, kebijakan penggunaan Anthropic secara tegas melarang pemakaian Claude untuk tujuan kekerasan, pengembangan senjata, atau kegiatan pengawasan. Hal ini menimbulkan pertanyaan besar mengenai kepatuhan dan etika dalam pemanfaatan teknologi mutakhir.

Hingga kini, belum jelas bagaimana persisnya Claude, yang memiliki beragam kemampuan mulai dari memproses dokumen PDF hingga mengendalikan drone otonom, dikerahkan dalam misi tersebut. Pihak Anthropic menolak berkomentar langsung mengenai keterlibatan Claude, namun menegaskan bahwa setiap penggunaan model AI mereka harus mematuhi ketentuan yang berlaku. Sementara itu, Departemen Pertahanan AS juga memilih bungkam atas klaim ini.
Laporan WSJ, yang mengutip sumber anonim, menyebutkan bahwa Claude diakses melalui kemitraan Anthropic dengan Palantir Technologies. Palantir sendiri merupakan kontraktor penting bagi Departemen Pertahanan AS dan berbagai lembaga penegak hukum federal. Sayangnya, Palantir juga menolak memberikan komentar terkait tudingan ini.
Pemanfaatan AI dalam persenjataan militer memang bukan lagi hal baru. Berbagai angkatan bersenjata di dunia, termasuk Israel, telah menggunakan drone dengan kemampuan otonom di Gaza dan memanfaatkan AI secara ekstensif untuk mengisi bank target mereka. Militer AS sendiri dalam beberapa tahun terakhir telah menggunakan penargetan berbasis AI untuk serangan di Irak dan Suriah.
Namun, tren ini tidak lepas dari kritik tajam. Para ahli dan aktivis telah memperingatkan bahaya penggunaan AI dalam teknologi senjata dan sistem senjata otonom. Kekhawatiran utama adalah potensi kesalahan penargetan yang dilakukan oleh komputer, yang dapat berujung pada korban jiwa yang tidak seharusnya.
Perusahaan-perusahaan AI sendiri menghadapi dilema besar mengenai bagaimana teknologi mereka harus berinteraksi dengan sektor pertahanan. CEO Anthropic, Dario Amodei, bahkan menyerukan regulasi ketat untuk mencegah dampak buruk dari penerapan AI. Amodei juga secara terbuka menyatakan kekhawatirannya terhadap penggunaan AI dalam operasi mematikan yang otonom dan pengawasan di AS.
Sikap hati-hati ini tampaknya kurang disukai oleh Departemen Pertahanan AS. Pada Januari lalu, Menteri Perang Pete Hegseth sempat menyatakan bahwa departemennya tidak akan "menggunakan model AI yang tidak memungkinkan Anda untuk berperang." Sebagai alternatif, Pentagon pada bulan yang sama mengumumkan kerja sama dengan xAI milik Elon Musk. Departemen pertahanan juga diketahui menggunakan versi kustom dari Google Gemini dan sistem OpenAI untuk mendukung riset mereka.





