Media Asuransi, JAKARTA – Otoritas Jasa Keuangan (OJK) menyatakan hingga saat ini belum terdapat laporan atau pengaduan resmi terkait penyalahgunaan Artificial Intelligence (AI) dalam mengakses layanan keuangan. Namun, OJK tetap mengimbau agar masyarakat mewaspadai adanya potensi penipuan dalam berbentuk AI ke depannya.
Kepala Eksekutif Pengawas Perilaku Pelaku Usaha Jasa Keuangan, Edukasi, dan Pelindungan Konsumen OJK Friderica Widyasari Dewi menjelaskan kemajuan teknologi dalam AI memiliki potensi penyalahgunaan untuk membuat tiruan suara atau voice cloning.
|Baca juga: Laba BRI (BBRI) Tembus Rp26,53 Triliun di Kuartal II/2025, Ini Penopangnya!
|Baca juga: DPK BRI (BBRI) Tumbuh 6,7% di Kuartal II/2025, Kinerja CASA Jadi Pendokraknya!
Hal itu, lanjutnya, bertujuan untuk menipu masyarakat agar terdengar lebih meyakinkan. “Teknologi AI memungkinkan pelaku untuk merekam dan meniru suara seseorang, seperti teman, kolega, atau keluarga,” ujar Frederica, dikutip dari jawaban tertulisnya, Senin, 4 Agustus 2025.
Dengan menggunakan suara yang sudah dipelajari sebelumnya, lanjutnya, penipu kemudian dapat melakukan percakapan seolah-olah mereka adalah orang yang dikenal dekat dengan korban. Selain suara, potensi penyalahgunaan yang lain adalah tiruan wajah atau deepfake.
“Teknologi AI juga memungkinkan pelaku untuk membuat video palsu yang meniru wajah dan ekspresi seseorang dengan akurat,” kata Frederica.
|Baca juga: Menguat 7%, OCBC (NISP) Cetak Laba Bersih Rp2,57 Triliun di Semester I/2025
|Baca juga: Rasio Kredit Macet Maybank Indonesia (BNII) Turun Jadi 2,4% per Juni 2025
Oleh sebab itu, masih kata Frederica, OJK mengimbau masyarakat untuk memperhatikan beberapa cara guna mencegah penipuan AI dengan cara yakni:
- Verifikasi informasi. Jika menerima permintaan yang tidak biasa, terutama yang meminta uang atau informasi pribadi, verifikasi terlebih dahulu dengan orang tersebut melalui saluran komunikasi yang lain.
- Jaga kerahasiaan informasi pribadi. Jangan pernah memberikan informasi pribadi atau keuangan kepada seseorang yang tidak dapat Anda verifikasi dengan pasti identitasnya.
- Hati-hati dengan video atau suara yang tidak biasanya. Waspadai video atau suara yang terlihat atau terdengar tidak biasa meskipun datang dari orang yang dikenal.
Editor: Angga Bratadharma
| Cek Berita dan Artikel yang lain di Google News