MALEINSPIRE.id – Seiring dengan kemajuan pesat teknologi kecerdasan buatan (Artificial Intelligence – AI), lanskap kejahatan siber turut berevolusi menjadi semakin canggih. Salah satu ancaman yang kini semakin marak adalah AI Voice Spoofing. Apa itu?
AI Voice Spoofing merupakan metode penipuan menggunakan AI untuk mengkloning suara dan menipu korban melalui panggilan telepon atau pesan suara.
Teknologi ini memiliki kemampuan luar biasa untuk meniru suara seseorang hanya dengan memanfaatkan sampel audio singkat —bahkan hanya dalam hitungan beberapa detik saja.
Baca juga: Ancaman Scam dan Spam Mengintai Gen Z, Melek Digital Bukan Jaminan Aman
Modus penipuan tersebut dikenal sebagai Vishing (Voice Phishing). Prosesnya relatif singkat dan mengandalkan efisiensi AI:
-
Pengambilan sampel: Pelaku (scammer) menelepon target dan merekam sampel suara selama 3-10 detik.
-
Kloning suara: Suara tersebut diolah menggunakan AI menjadi versi digital yang mampu meniru nada bicara dan intonasi korban.
-
Aksi penipuan: Pelaku kemudian menelepon orang terdekat korban, menggunakan suara kloningan tersebut, untuk meminta transfer uang atau data pribadi.
Banyak korban yang tidak menyadari bahwa suaranya telah dicuri, dan kecenderungan untuk mudah memercayai suara yang familiar membuat pelaku dapat memanfaatkan momen krusial tersebut untuk melancarkan aksinya.
Analisis Google terhadap pemanfaatan AI Voice Spoofing

Google sebelumnya telah mengeksplorasi pemanfaatan kecerdasan buatan generatif (generative AI) oleh aktor ancaman dalam kampanye phishing dan operasi informasi (IO).
Analisis ini meneliti bagaimana penipu menggunakan gen AI untuk menciptakan konten yang lebih meyakinkan, seperti gambar dan video deepfake.
Melalui laporan Google Cloud, mereka membagikan wawasan mengenai cara penipu memanfaatkan Large Language Models (LLMs) untuk mengembangkan malware.
Meskipun Google menekankan bahwa penipu tertarik pada AI generatif, penggunaannya dalam serangan masih tergolong relatif terbatas, namun potensinya sangat besar.
Studi awal itu secara khusus mengulas taktik, teknik, dan prosedur (TTP) AI yang baru, serta tren yang sedang berkembang.
Salah satu kasus besar yang pernah terjadi menunjukkan betapa berbahayanya modus ini.
Sebuah perusahaan multinasional di Hong Kong menjadi target pencurian yang sukses menggondol lebih dari 200 juta dolar Hongkong (setara Rp430 miliar) menggunakan kombinasi AI Voice Spoofing dan deepfake.
Baca juga: 6 Tips Mencegah Love Scamming di Medsos
Mengidentifikasi respons yang dihasilkan AI
Tim Merah Mandiant dari Google kemudian menggunakan taktik yang sama dalam simulasi serangan untuk menguji ketahanan organisasi.
Hasilnya, mereka menemukan tanda-tanda halus yang dapat mengidentifikasi AI Voice Spoofing, antara lain:
-
Jeda canggung: Adanya jeda yang tidak natural sebelum telepon dijawab.
-
Nada suara stabil berlebihan: Nada bicara yang terlalu stabil atau monoton.
-
Respons tidak alami: Tanggapan yang terasa kaku atau tidak wajar.
-
Penundaan atau distorsi: Adanya penundaan atau distorsi yang halus pada audio.
-
Ketidakmampuan menjawab pertanyaan spesifik: Kesulitan untuk memberikan jawaban rinci atas pertanyaan tertentu.
Komitmen industri dan peringatan ahli

Beberapa perusahaan pengembang AI telah menyadari potensi penyalahgunaan alat mereka.
“Kami menyadari potensi penyalahgunaan alat yang sangat kuat ini dan telah menerapkan langkah-langkah pengamanan yang kuat untuk mencegah pembuatan deepfake dan melindungi dari peniruan suara,” kata juru bicara Resemble AI.
Baca juga: Modus Penipuan Telepon Asing Menggunakan AI Marak di Korea Selatan
Menurut Sarah Myers West, co-executive director dari AI Now Institute, AI Voice Spoofing memiliki potensi besar untuk menimbulkan bahaya, terutama dalam konteks penipuan.
“Ini jelas dapat digunakan untuk penipuan, fraud, dan disinformasi, misalnya dengan menyamar sebagai tokoh institusi,” kata West.
Ia menegaskan bahwa perlindungan kebijakan terhadap teknologi ini sangat dibutuhkan.