AI Voice Cloning Scam Trik Bersedih pada Ibu untuk mengirim ₹ 12,5 lakh: Apa yang harus Anda perhatikan

Jenis penipuan segar menggunakan kecerdasan buatan menyebabkan seorang wanita di Florida, Sharon Brightwell, kehilangan $ 15.000 (kira -kira ₹12.5 lakh). Sebelum kita membaca tentang kasus ini secara mendalam, ini adalah pengingat bagaimana teknologi semakin disalahgunakan dengan penipuan yang tampak nyata, mendesak orang di mana-mana untuk berhati-hati.
Saat teknologi berpura -pura menjadi nyata
Pada 9 Juli, Sharon dipanggil dari nomor yang tampak hampir identik dengan putrinya, menurut Wfla. Suara di telepon terdengar seperti putrinya tapi tegang dan kesal. Sharon diberitahu bahwa putrinya mengalami kecelakaan, memukul seorang wanita hamil sambil terganggu dengan mengirim sms. Penelepon mengatakan putrinya ditahan.
Tidak lama kemudian, seorang pria yang mengaku sebagai pengacara bernama Sharon. Dia menuntut $ 15.000 (sekitar ₹12,5 lakh) dalam uang jaminan. Khawatir dan ingin membantu, Sharon mengambil uang tunai dan memberikannya kepada orang -orang seperti yang diperintahkan.
Segera setelah itu, Sharon menerima panggilan lain. Kisah itu memburuk, wanita hamil itu dikatakan telah kehilangan bayinya dan keluarganya sedang mencari ₹25 lakh lebih untuk menghindari menggugat. Pada saat itu, cucu Sharon dan seorang teman keluarga dekat melangkah masuk bersama, mereka memanggil putri asli Sharon, yang aman dan bekerja. Sharon kemudian menggambarkan betapa terkejut dan lega dia merasa mendengar suara putrinya yang sebenarnya dan menyadari betapa dekatnya dia kehilangan lebih banyak uang.
Bagaimana penipuan itu bekerja
The Fraudsters menggunakan teknologi AI untuk mengkloning suara putri Sharon, April Monroe, hanya dengan klip kecil audio aslinya. April mengatakan suara yang dikloning terdengar sangat mirip sehingga membodohi ibunya dan orang lain yang dekat dengan keluarga. Sejak itu ia telah mendirikan penggalangan dana untuk mendukung keluarga dan meningkatkan kesadaran tentang penipuan ini.
Polisi di Hillsborough County, Florida, mengkonfirmasi penyelidikan sedang berlangsung. Mereka menambahkan bahwa penipuan menggunakan suara AI tumbuh lebih kompleks dan lebih sulit untuk dikenali.
Kejahatan semacam ini menunjukkan bahwa scammers tidak perlu meretas secara mendalam ke dalam sistem lagi; Cukup memiliki klip suara seseorang yang diperoleh dari video atau panggilan publik sudah cukup untuk membuat penipuan yang dapat dipercaya. Skema ini bekerja dengan memicu ketakutan dan urgensi, membuat korban bertindak tanpa berpikir. Kelompok yang rentan, terutama orang tua atau mereka yang berada di bawah tekanan tetap berisiko tinggi.
Cara Melindungi Diri dari Penipuan Kloning Suara
- Selalu periksa panggilan darurat dengan menjangkau anggota keluarga Anda dengan nomor telepon atau aplikasi yang berbeda.
- Berhati -hatilah jika Anda ditekan untuk segera mengirim uang, bahkan jika panggilan itu terdengar nyata.
- Gunakan codeword keluarga rahasia untuk keadaan darurat sehingga Anda dapat memverifikasi panggilan.
- Batasi berapa banyak audio atau video yang Anda bagikan secara publik di media sosial.
- Mendidik anggota keluarga senior tentang bentuk -bentuk baru penipuan online.