Wanti-wanti Penipuan AI, OJK Waspadai "Voice Cloning" dan 'Deepfake" yang Kian Meyakinkan
Poin Penting
|
JAKARTA, investortrust.id - Otoritas Jasa Keuangan (OJK) menyatakan bahwa kemajuan teknologi artificial intelligence (AI) memiliki potensi penyalahgunaan untuk membuat tiruan suara (voice cloning) dan tiruan wajah (deepfake).
Kepala Eksekutif Pengawas Perilaku Pelaku Usaha Jasa Keuangan, Edukasi dan Pelindungan Konsumen Friderica Widyasari Dewi mengungkapkan, hal itu dilakukan dengan tujuan, antara lain menipu dengan cara yang terlihat dan terdengar meyakinkan.
Baca Juga
"Ini menuntut masyarakat lebih waspada melakukan transaksi keuangan," ujar Friderica dalam jawaban tertulis konferensi pers Asesmen Sektor Jasa Keuangan dan Kebijakan OJK Hasil Rapat Dewan Komisioner (RDK) Bulanan Juni 2025, dikutip Minggu (3/8/2025).
Friderica menjelaskan, tiruan suara dan wajah merupakan beberapa cara kerja penipuan AI. Teknologi AI memungkinkan pelaku merekam dan meniru suara seseorang, seperti teman, kolega, atau keluarga. "Dengan menggunakan suara yang sudah dipelajari tersebut, penipu melakukan percakapan seolah-olah mereka adalah orang yang dikenal korban," ungkap Friderica.
Kemudian, teknologi AI juga memungkinkan pelaku membuat video palsu yang meniru wajah dan ekspresi seseorang dengan akurat. Video ini dapat digunakan untuk meyakinkan korban bahwa mereka sedang berkomunikasi dengan orang yang mereka kenal sehingga korban merasa lebih percaya.
Oleh sebab itu, Friderica mengimbau masyarakat memperhatikan beberapa cara untuk mencegah penipuan AI. Pertama adalah verifikasi informasi jika menerima permintaan yang tidak biasa, terutama meminta uang atau informasi pribadi. Verifikasi terlebih dahulu dengan orang tersebut melalui saluran komunikasi yang lain.
Baca Juga
Marak Informasi Rekrutmen Palsu, Ini Dia Tips Menghindari Penipuan Rekrutmen Ala Pegadaian
Kedua, jaga kerahasiaan informasi pribadi. "Jangan pernah memberikan informasi pribadi atau keuangan kepada seseorang yang tidak dapat anda verifikasi dengan pasti identitasnya," kata dia.
Ketiga, hati-hati dengan video atau suara yang tidak biasa meskipun datang dari orang yang dikenal.

