
mak! They've Got Her – But It Was Just AI”: Bagaimana “Filem Seram Kehidupan Sebenar” Dimainkan di Kansas
Panggilan yang menakutkan. Laporan 911 yang panik. Polis berlumba-lumba untuk menghentikan apa yang mereka anggap sebagai penculikan - hanya untuk mengetahui bahawa itu semua adalah penipuan.
Begitulah kes baru-baru ini di Lawrence, Kan., di mana seorang wanita mengambil mel suaranya untuk mendapati ia dirampas oleh suara yang menakutkan seperti ibunya yang mendakwa menghadapi masalah.
Suara itu dijana AI, sebenarnya agak palsu. Dan secara tiba-tiba, ia bukan plot novel jenayah - ia adalah kehidupan sebenar.
Suara di seberang sana "berbunyi sama seperti ibunya," kata polis, nada yang sepadan, infleksi, malah keadaan emosi yang memuncak.
Semuanya terasa seperti penipu mengambil beberapa audio awam (mungkin dari media sosial atau salam mel suara), menyalurkannya melalui beberapa AI pengklonan suara, dan menyaksikan dunia terbakar.
Jadi wanita itu mendail 911; polis mengesan nombor itu dan menepi sebuah kereta - hanya untuk menemui: tiada penculikan. Hanya ancaman maya yang bertujuan untuk menipu deria manusia.
Ini bukan kali pertama perkara seperti ini berlaku. Dengan hanya coretan audio, kecerdasan buatan hari ini boleh menjana nada dulcet Walter Cronkite atau, katakan, Barack Obama – tidak kira sama ada bekas presiden itu telah berkata apa-apa seperti apa yang anda dengar..segmen menggunakan palsu mendalam untuk memanipulasi tindakan orang dengan cara yang baharu dan meyakinkan.
Satu laporan baru-baru ini oleh firma keselamatan mendapati bahawa kira-kira 70 peratus masa, orang ramai menghadapi masalah membezakan suara klon daripada yang sebenar.
Dan ini bukan hanya tentang gurauan sekali sahaja dan penipuan kecil. Penipu menggunakan alat ini untuk menuduh pegawai awam, memperdayakan mangsa untuk menyalurkan wang yang banyak kepada mereka, atau menyamar sebagai rakan dan ahli keluarga dalam situasi yang penuh emosi.
Hasilnya: jenis penipuan baharu yang lebih sukar untuk diperhatikan – dan lebih mudah dilakukan – berbanding mana-mana dalam ingatan baru-baru ini.
Tragedinya kepercayaan begitu mudah menjadi senjata. Apabila telinga anda - dan tindak balas emosi anda - membeli apa yang mereka dengar, walaupun pemeriksaan usus yang paling asas boleh hilang. Mangsa sering tidak menyedari panggilan itu adalah palsu sehingga sudah terlambat.
Jadi apa yang boleh anda lakukan jika anda menerima panggilan yang dirasakan "terlalu nyata"? Pakar mencadangkan jaring keselamatan yang kecil tetapi penting: "perkataan selamat keluarga" yang telah ditetapkan, semak dengan menghubungi semula orang yang anda sayangi pada nombor yang diketahui dan bukan yang menghubungi anda, atau tanya soalan yang hanya diketahui oleh orang sebenar.
OK, jadi ini pemeriksaan telefon sekolah lama, tetapi dalam era AI yang boleh menghasilkan semula nada, ketawa malah kesedihan – ia mungkin hanya tiket untuk memastikan anda selamat.
Kes Lawrence khususnya adalah panggilan bangun. Semasa AI belajar meniru suara kita, penipuan semakin teruk, lebih teruk.
Ia bukan hanya mengenai e-mel palsu dan mengklik pautan pancingan data, lagi – kini ia mendengar suara ibu anda di telefon, dan ingin dengan setiap atom makhluk anda percaya bahawa sesuatu yang mengerikan belum berlaku.
Itu menyejukkan. Dan ini bermakna bahawa kita semua perlu kekal beberapa langkah ke hadapan – dengan keraguan, pengesahan dan rasa tidak percaya yang menggembirakan.












