JAKARTA, - Satuan Tugas Pemberantasan Aktivitas Keuangan Ilegal (Satgas PASTI) mengingatkan masyarakat untuk meningkatkan kewaspadaan terhadap modus penipuan yang memanfaatkan teknologi kecerdasan buatan atau Artificial Intelligence (AI). Penipuan berbasis AI kini berkembang cepat dengan kemampuan meniru suara (voice cloning) hingga membuat video palsu yang menyerupai wajah seseorang (deepfake).Dengan demikian, korban semakin sulit membedakan mana komunikasi asli dan mana jebakan digital.Baca juga: Kenali, Metode 3C dari TikTok untuk Lawan Penipuan OnlineWIKIMEDIA COMMONS/JERNEJ FURMAN Ilustrasi kecerdasan buatan atau artificial intelligence (AI). Sekretariat Satgas PASTI, Hudiyanto, menjelaskan bahwa teknologi AI saat ini memungkinkan pelaku kejahatan merekam, mempelajari, dan meniru suara seseorang, baik teman, keluarga, maupun kolega.Dengan suara tiruan itu, penipu bisa melakukan percakapan yang terdengar sangat meyakinkan, membuat korban percaya sehingga mudah dimanipulasi. “Teknologi AI memudahkan pelaku penipuan untuk merekam dan meniru suara seseorang seperti teman, kolega, atau keluarga. Dengan menggunakan suara yang sudah dipelajari tersebut, penipu dapat melakukan percakapan seolah-olah mereka adalah orang yang dikenal korban,” ujar Hudiyanto lewat keterangan pers, Sabtu . Lebih dari itu, pelaku juga memanfaatkan teknologi deepfake untuk membuat video palsu yang menampilkan wajah dan ekspresi seseorang secara akurat.Baca juga: Penipuan AI Deepfake Kian Marak, Keamanan Identitas Digital DiujiVideo sering digunakan dalam modus permintaan dana darurat atau instruksi mendesak, sehingga korban merasa terdesak dan tidak sempat melakukan pengecekan.“Teknologi AI juga memungkinkan pelaku penipuan untuk membuat video palsu yang meniru wajah dan ekspresi seseorang dengan akurat. Video ini dapat digunakan untuk meyakinkan korban bahwa mereka sedang berkomunikasi dengan orang yang mereka kenal, sehingga korban merasa lebih percaya,” katanya.
(prf/ega)
Awas! Penipuan AI Makin Canggih, Suara dan Wajah Bisa Dipalsukan
2026-01-12 07:36:17
Berita Lainnya
Berita Terpopuler
| 2026-01-12 07:42
| 2026-01-12 07:18
| 2026-01-12 07:14
| 2026-01-12 06:35
| 2026-01-12 06:14










































