TeknoLogiz – Konflik bersenjata di Iran baru-baru ini menandai babak baru dalam strategi perang global, di mana kecerdasan buatan (AI) menjadi pemain kunci. Para ahli memperingatkan bahwa penggunaan AI dalam serangan udara kini memungkinkan pengeboman terjadi dengan kecepatan yang jauh melampaui "kecepatan berpikir" manusia, memicu kekhawatiran serius tentang peran pembuat keputusan manusia yang mungkin terpinggirkan.
Model AI canggih milik Anthropic, Claude, dilaporkan digunakan oleh militer Amerika Serikat dalam serangkaian serangan masif. Teknologi ini secara signifikan "memperpendek rantai serangan" – sebuah proses krusial mulai dari identifikasi target, persetujuan hukum, hingga peluncuran serangan. AS dan Israel, yang sebelumnya telah memanfaatkan AI untuk mengidentifikasi target di Gaza, melancarkan hampir 900 serangan terhadap sasaran Iran hanya dalam 12 jam pertama. Serangan tersebut bahkan dikabarkan menewaskan pemimpin tertinggi Iran, Ayatollah Ali Khamenei, oleh rudal Israel.

Para akademisi yang mendalami bidang ini menyoroti bagaimana AI secara drastis mempersingkat waktu perencanaan yang dibutuhkan untuk serangan kompleks, sebuah fenomena yang dikenal sebagai "penyusutan waktu keputusan". Kekhawatiran muncul bahwa hal ini dapat membuat para ahli militer dan hukum hanya menjadi "stempel karet" untuk rencana serangan yang dihasilkan secara otomatis oleh AI.
Pada tahun 2024, Anthropic, perusahaan yang berbasis di San Francisco, telah menyebarkan model AI-nya ke seluruh Departemen Perang AS dan lembaga keamanan nasional lainnya untuk mempercepat perencanaan perang. Claude terintegrasi dalam sistem yang dikembangkan oleh perusahaan teknologi perang Palantir bersama Pentagon, bertujuan untuk "meningkatkan analisis intelijen secara dramatis dan memberdayakan para pejabat dalam proses pengambilan keputusan mereka."
Craig Jones, seorang dosen senior geografi politik di Newcastle University dan pakar rantai serangan, menjelaskan, "Mesin AI membuat rekomendasi target, yang dalam beberapa hal jauh lebih cepat daripada kecepatan berpikir. Jadi Anda memiliki skala dan kecepatan, Anda melakukan serangan gaya pembunuhan sekaligus memenggal kemampuan rezim untuk merespons dengan semua rudal balistik udara. Itu mungkin membutuhkan waktu berhari-hari atau berminggu-minggu dalam perang historis. [Sekarang] Anda melakukan semuanya sekaligus."
Sistem AI terbaru mampu menganalisis tumpukan informasi target potensial dengan sangat cepat, mulai dari rekaman drone, intersepsi telekomunikasi, hingga intelijen manusia. Sistem Palantir menggunakan pembelajaran mesin untuk mengidentifikasi dan memprioritaskan target serta merekomendasikan persenjataan, dengan mempertimbangkan stok dan kinerja sebelumnya terhadap target serupa. Bahkan, sistem ini juga menggunakan penalaran otomatis untuk mengevaluasi dasar hukum suatu serangan.
David Leslie, profesor etika, teknologi, dan masyarakat di Queen Mary University of London, yang telah mengamati demonstrasi sistem militer AI, menyatakan, "Ini adalah era berikutnya dari strategi militer dan teknologi militer." Ia juga memperingatkan bahwa ketergantungan pada AI dapat mengakibatkan "pemindahan kognitif" (cognitive off-loading). Manusia yang ditugaskan untuk membuat keputusan serangan bisa merasa terlepas dari konsekuensinya karena upaya berpikir telah dilakukan oleh mesin.
Pada Sabtu, 165 orang, termasuk banyak anak-anak, dilaporkan tewas dalam serangan rudal yang menghantam sebuah sekolah di Iran selatan, menurut media pemerintah. Lokasi tersebut tampaknya dekat dengan barak militer, dan PBB menyebutnya "pelanggaran berat hukum humaniter." Militer AS menyatakan sedang menyelidiki laporan tersebut.
Belum diketahui secara pasti sistem AI apa, jika ada, yang telah ditanamkan Iran dalam mesin perangnya. Meskipun Iran pada tahun 2025 mengklaim menggunakan AI dalam sistem penargetan rudalnya, program AI-nya, yang terhambat oleh sanksi internasional, tampak tidak signifikan dibandingkan dengan kekuatan AI AS dan Tiongkok.
Beberapa hari sebelum serangan Iran, administrasi AS sempat menyatakan akan melarang Anthropic dari sistemnya setelah perusahaan tersebut menolak mengizinkan AI-nya digunakan untuk senjata otonom penuh atau pengawasan warga AS. Namun, penggunaan AI tersebut masih berlanjut hingga dihapus secara bertahap. Rival Anthropic, OpenAI, dengan cepat menandatangani kesepakatan sendiri dengan Pentagon untuk penggunaan militer model-modelnya.
"Keuntungannya terletak pada kecepatan pengambilan keputusan, menyusutnya perencanaan dari yang mungkin memakan waktu berhari-hari atau berminggu-minggu menjadi hitungan menit atau detik," kata Leslie. "Sistem ini menghasilkan serangkaian opsi bagi pembuat keputusan manusia, tetapi [mereka] memiliki rentang waktu yang jauh lebih sempit untuk mengevaluasi rekomendasi tersebut."
Prerana Joshi, peneliti di Royal United Services Institute, sebuah lembaga pemikir pertahanan, menambahkan, "Penyebaran AI terus meluas. Ini dilakukan di seluruh aset pertahanan negara-negara, meliputi logistik, pelatihan, manajemen keputusan, pemeliharaan." Ia menyimpulkan, "AI adalah teknologi yang akan memungkinkan pembuat keputusan, dan siapa pun dalam rantai itu, untuk meningkatkan produktivitas dan efisiensi dari apa yang mereka lakukan. Ini adalah cara mensintesis data dengan kecepatan yang jauh lebih cepat yang sangat membantu para pembuat keputusan."





