Masyarakat diimbau berhati-hati saat menerima atau mengangkat telepon asing, meski hanya dengan satu kata sapaan "halo", selama kurang lebih 3 detik. Sebab, hal itu bisa berujung pada modus penipuaan suara (voice phishing) menggunakan kecerdasaan buatan (AI).
Penipuan suara bermodus telepon asing yang memanfaatkan teknologi AI ini tengah marak di Korea Selatan.
Dalam kasus ini biasanya, pelaku hanya akan menelepon dan menunggu tanpa bersuara hingga korban yang menjadi lawan bicaranya terpancing mengucapkan sepatah atau dua patah kata.
Kemudian suara korban yang direkam pelaku telepon asing ini akan diolah menjadi kalimat utuh oleh Deep Voice AI untuk menipu orang lain.
Lantas, bagaimana cara terhindar dari penipuan suara menggunakan kecerdasan buatan ini?
Simak berita selengkapnya dalam video berikut!
Penulis : Diva Lufiana Putri
Penulis Naskah: Dariz Kartika
Narator: Dariz Kartika
Video Editor: Dariz Kartika
Produser: Holy Kartika Nurwigati Sumartiningtyas
Musik: I Had a Feeling - TrackTribe
#AI #Penipuan #ArtificialIntelligence #KecerdasanBuatan #DeepVoiceAI #VoicePhishing #PenipuanSuaraPakaiAI #JernihkanHarapan
Artikel Terkait:
https://www.kompas.com/tren/read/2024/07/22/180000065/3-detik-halo-saat-terima-telepon-asing-bisa-berujung-penipuan-pakai-ai