TeknoLogiz – Dunia maya kini dihadapkan pada ancaman baru yang semakin meresahkan penipuan berbasis deepfake. Sebuah analisis terbaru dari para pakar kecerdasan buatan (AI) mengungkap bahwa modus kejahatan ini telah mencapai skala industri. Alat untuk menciptakan penipuan yang sangat personal dan terarah kini bukan lagi barang langka melainkan mudah diakses, murah, dan dapat diterapkan secara massal.
Laporan dari AI Incident Database mendokumentasikan lebih dari selusin kasus "penyamaran demi keuntungan" yang terjadi belakangan ini. Contohnya termasuk video deepfake jurnalis Swedia atau presiden Siprus yang digunakan untuk tujuan jahat. Bahkan ada kasus video deepfake Perdana Menteri Australia Barat Robert Cook yang mempromosikan skema investasi palsu, serta dokter deepfake yang mengiklankan krim kulit. Ini menunjukkan tren di mana para penipu memanfaatkan alat AI yang tersedia luas untuk melancarkan kejahatan yang semakin terarah.

Dampak finansialnya pun tidak main-main. Tahun lalu, seorang pejabat keuangan di sebuah perusahaan multinasional Singapura kehilangan hampir 500.000 dolar AS setelah tertipu panggilan video yang diyakininya berasal dari pimpinan perusahaan. Di Inggris, kerugian konsumen akibat penipuan diperkirakan mencapai 9,4 miliar poundsterling dalam sembilan bulan hingga November 2025.
Simon Mylius, seorang peneliti MIT yang terlibat dalam proyek AI Incident Database, menyatakan, "Kemampuan untuk menghasilkan konten palsu kini telah mencapai tingkat di mana hampir semua orang bisa melakukannya." Ia menambahkan bahwa penipuan dan manipulasi terarah menjadi proporsi terbesar insiden yang dilaporkan ke database selama 11 dari 12 bulan terakhir. "Ini menjadi sangat mudah diakses hingga praktis tidak ada lagi hambatan untuk masuk," tegas Mylius.
Fred Heiding, peneliti Harvard yang mengkaji penipuan berbasis AI, juga mengamini. "Skalanya berubah drastis. Biayanya menjadi sangat murah, hampir semua orang bisa menggunakannya sekarang. Model-modelnya semakin bagus, mereka berkembang jauh lebih cepat dari perkiraan kebanyakan ahli."
Salah satu korban adalah Jason Rebholz, CEO Evoke, sebuah perusahaan keamanan AI. Pada awal Januari, ia mengunggah tawaran pekerjaan di LinkedIn dan segera dihubungi oleh seseorang dalam jaringannya yang merekomendasikan seorang kandidat. Dalam beberapa hari, ia bertukar email dengan seseorang yang di atas kertas tampak sebagai insinyur berbakat.
"Saya melihat resume-nya dan berpikir ini resume yang sangat bagus. Meskipun ada beberapa tanda bahaya, saya memutuskan untuk tetap melanjutkan percakapan," kenang Rebholz. Namun kemudian, hal-hal aneh mulai terjadi. Email kandidat langsung masuk ke folder spam. Resume-nya memiliki beberapa keanehan. Meski begitu, Rebholz yang pernah berurusan dengan kandidat tidak biasa memutuskan untuk melanjutkan wawancara.
Saat wawancara video dimulai, video kandidat membutuhkan waktu hampir satu menit untuk muncul. "Latar belakangnya sangat palsu," kata Rebholz. "Terlihat sangat, sangat palsu. Dan sistemnya kesulitan menangani area di sekitar tepi individu. Seperti sebagian tubuhnya muncul dan menghilang. Lalu ketika saya melihat wajahnya, terlihat sangat lembut di bagian tepinya."
Rebholz tetap melanjutkan percakapan, tidak ingin menghadapi kecanggungan bertanya langsung apakah kandidat tersebut adalah penipuan yang rumit. Setelah wawancara, ia mengirim rekaman tersebut ke kontak di perusahaan deteksi deepfake yang kemudian mengonfirmasi bahwa gambar video kandidat itu dihasilkan oleh AI. Rebholz pun menolak kandidat tersebut.
Rebholz masih tidak tahu apa yang diinginkan penipu itu, apakah gaji insinyur atau rahasia dagang. Meskipun ada laporan peretas Korea Utara yang mencoba mendapatkan pekerjaan di Amazon, Evoke adalah perusahaan rintisan, bukan pemain besar. "Jika kami menjadi sasaran ini, berarti semua orang juga menjadi sasaran," ujar Rebholz.
Heiding memperingatkan bahwa yang terburuk masih di depan. Teknologi kloning suara deepfake saat ini sangat canggih, memudahkan penipu untuk meniru misalnya suara cucu yang sedang dalam kesulitan melalui telepon. Sementara itu, video deepfake masih memiliki ruang untuk perbaikan.
Ini bisa menimbulkan konsekuensi ekstrem bagi proses perekrutan, pemilihan umum, dan masyarakat luas. Heiding menambahkan, "Ini akan menjadi titik nyeri terbesar, kurangnya kepercayaan total terhadap institusi digital dan institusi serta materi secara umum."





