Suara Deepfake Picu Penipuan Ratusan Juta: Dosen Informatika UMSurabaya Beberkan Cara Mencegahnya

  • Home -
  • Article -
  • Suara Deepfake Picu Penipuan Ratusan Juta: Dosen Informatika UMSurabaya Beberkan Cara Mencegahnya
Gambar Artikel Suara Deepfake Picu Penipuan Ratusan Juta: Dosen Informatika UMSurabaya Beberkan Cara Mencegahnya
  • 01 Dec
  • 2025

Ilustrasi gambar (Istimewa)

Suara Deepfake Picu Penipuan Ratusan Juta: Dosen Informatika UMSurabaya Beberkan Cara Mencegahnya

Dosen Teknik Informatika Universitas Muhammadiyah Surabaya (UMSurabaya), Lukman Hakim, menegaskan bahwa meningkatnya kasus penipuan dengan teknik voice spoofing atau pemalsuan suara berbasis kecerdasan buatan (AI) harus menjadi alarm serius bagi masyarakat Indonesia. Modus ini, menurutnya, semakin mudah dilakukan dan semakin sulit dikenali.

“Saat ini suara manusia bisa dipalsukan hanya dengan 3–10 detik sampel. Itu sangat berbahaya,”ujar Lukman Senin (1/12/25)

Menurut Lukman, pelaku hanya membutuhkan rekaman suara pendek yang bisa diambil dari pesan suara WhatsApp, unggahan TikTok, hingga potongan audio dari media sosial untuk membuat kloning suara seseorang. Dengan bantuan aplikasi AI voice generator atau deepfake voice, suara itu bisa disusun ulang menjadi kalimat apa pun dalam waktu kurang dari dua menit.

“Dulu manipulasi suara butuh perangkat canggih. Sekarang aplikasi gratis pun bisa membuat tiruan suara yang sangat meyakinkan,” tegas Lukman.

Lukman menjelaskan, pola serangan voice spoofing hampir selalu memanfaatkan dua hal: emosi korban dan keterbatasan literasi digital. Pelaku kerap menciptakan suasana darurat mengaku sebagai anak yang mengalami kecelakaan, petugas bank yang menemukan transaksi mencurigakan, atau aparat yang meminta verifikasi data.

Dalam kondisi panik, korban biasanya langsung mengikuti perintah, mulai dari mentransfer uang, memberikan kode OTP, hingga membagikan akses akun digital. Kerugian dalam sejumlah kasus bahkan mencapai ratusan juta rupiah.

Lebih jauh, ia menyoroti riset internasional yang menunjukkan bahwa voice spoofing bukan hanya menipu manusia, tetapi juga mampu menembus sistem keamanan biometrik suara yang selama ini dianggap aman. Penelitian Hernández-Nava (2023) dan Zhou (2022) menunjukkan adanya celah serius dalam voice authentication yang belum sepenuhnya dapat diatasi oleh teknologi anti-spoofing saat ini.

Lukman memberikan beberapa kiat yang menurutnya penting dipahami masyarakat: Pertama, Jangan percaya hanya karena suaranya mirip. Jika ada pihak yang mengaku dari bank atau institusi resmi, putuskan sambungan, lalu hubungi nomor resmi institusi tersebut secara mandiri.

Kedua, kendalikan emosi. Pelaku sengaja membuat kepanikan agar korban tidak sempat berpikir rasional.

Ketiga, Jangan berikan kode OTP, PIN, atau data pribadi apa pun dan periksa aktivitas rekening dan aplikasi finansial secara rutin. Segera laporkan ke bank jika ada transaksi yang tidak di kenali.

Lukman menegaskan, seseorang juga perlu verifikasi melalui saluran lain.Jika seseorang menelepon mengaku sebagai anak/kerabat, hubungi langsung orang tersebut melalui nomor asli.

Selanjutnya, pastikan layanan yang digunakan memiliki sistem anti-spoofing.Terutama layanan yang memakai verifikasi suara sebagai metode autentikasi. Lukman menegaskan bahwa pemerintah, lembaga keuangan, dan ekosistem digital memiliki peran penting dalam edukasi publik. Namun, menurutnya, benteng pertama tetap ada di tangan masyarakat.

“Ancaman digital tidak lagi datang dalam bentuk pesan teks atau tautan mencurigakan. Kini suaralah yang disalahgunakan untuk menipu,” jelasnya.

Dengan memahami cara kerja modus ini dan mengenali tanda-tandanya, masyarakat dapat lebih siap menghadapi kejahatan siber berbasis AI yang kian canggih dan sulit dibedakan dari interaksi nyata.