Dark
Light

Waspada, Penipuan dengan AI Mulai Merajalela

3 mins read
June 14, 2023
Penipu kini juga memanfaatkan AI. | Sumber: Pexels

Sekarang, teknologi Artificial Intelligence (AI) tidak hanya bisa digunakan oleh perusahaan besar, tapi juga masyarakat umum. Beberapa tahun belakangan, ada semakin banyak AI tools yang ditujukan untuk membantu individu, mulai dari alat untuk membantu Anda membuat PPT sampai membuat game. Sayangnya, AI juga bisa disalahgunakan oleh para kriminal, termasuk dalam kasus penipuan.

Penipuan dengan Konten Pornografi Deepfake

Di awal Juni 2023, FBI mengungkap bahwa jumlah kasus penipuan menggunakan AI, khususnya penggunaan deepfake, mengalami kenaikan. Memang, dengan deepfake, pengguna bisa “menempelkan” wajah seseorang ke video yang sama sekali berbeda. Dan kriminal memanfaatkan teknologi itu untuk merekayasa konten pornografi. Kemudian, penipu akan memanfaatkan video rekayasa tersebut untuk mengancam korban.

Keberadaan konten pornografi hasil rekayasa sebenarnya bukan hal baru. Namun, kemunculan teknologi seperti deepfake membuat masalah tersebut menjadi semakin merajalela. FBI menjelaskan, untuk merekayasa video pornografi dari korban, para kriminal biasanya menggunakan foto dan video yang ada di media sosial korban. Setelah itu, sang pelaku biasanya akan menyebarkan konten pornografi palsu itu di media sosial, forum online, atau bahkan situs pornografi.

Teknologi deepfake bisa digunakan untuk membuat video rekayasa. | Sumber: World Economic Forum

Tak berhenti sampai di sana, para pelaku juga sering meminta para korban — yang terkadang masih anak-anak — untuk membayar mereka. Bayaran yang diminta pelaku beragam, mulai dari uang, gift cards, sampai foto seksual asli dari sang korban. Jika korban menolak, para pelaku biasanya akan mengancam untuk menyebarkan konten pornografi deepfake yang mereka buat ke teman dan keluarga korban.

Eva Casey-Velasquez, President dari Identity Theft Resource Center mengatakan bahwa dengan membuat konten pornografi deepfake dari korban, pelaku mencoba untuk membuat korban merasa syok dan takut. Dengan begitu, korban akan cenderung memenuhi permintaan pelaku.

“Jika seorang korban melihat video pornografi yang menampilkan diri mereka sendiri, jika mereka tidak tahu tentang deepfake, mereka akan panik dan kebingungan,” kata Velasquez pada NBC News. Karena korban merasa dia tidak pernah berpartisipasi dalam pembuatan video, dia akan mempertanyakan ingatannya sendiri. Di titik ini, korban biasanya hanya ingin agar konten pornografi deepfake mereka dihapus.

Penipuan dengan Tiruan Suara Buatan AI

Kriminal tidak hanya menyalahgunakan AI dengan merekayasa konten pornografi saja, mereka juga punya modus operandi lain. Salah satunya, penipuan menggunakan suara tiruan yang dibuat dengan AI. Memang, ada beberapa AI yang bisa membuat suara tiruan dari seseorang.

Untuk membuat suara tiruan, AI biasanya membutuhkan rekaman suara dari individu yang menjadi target. Menurut Matthew Wright, Chair of Computer Science, Rochester Institute of Technology, untuk membuat tiruan suara dengan AI, Anda tidak membutuhkan sampel audio dengan durasi yang lama.

Setelah sukses membuat suara tiruan dari seorang target, kriminal akan menghubungi teman atau keluarga dari target tersebut dan meminta sejumlah uang. Pada dasarnya, metode penipuan ini sama dengan penipu yang mengirimkan SMS, berpura-pura sebagai teman atau keluarga dan meminta sejumlah uang. Hanya saja, penipuan yang memanfaatkan AI akan terasa lebih meyakinkan. Karena, korban mendapat telpon langsung.

Ada banyak AI tool yang bisa digunakan untuk membuat tiruan suara seseorang. | Sumber: The Verge

“Biasanya, para kriminal akan menelpon calon korban dan berpura-pura sebagai sales. Dia melakukan hal ini untuk mendapatkan rekaman suara korban dengan durasi yang cukup lama,” kata Wright, dalam wawancara dengan Euronews. “Dan suara buatan AI ini cukup baik sehingga ia bisa menipu orang.”

Penipuan menggunakan suara tiruan buatan AI ini telah memakan korban. Salah satunya, pria asal Tiongkok yang mengirimkan uang sebesar CNY4,3 juta (sekitar Rp8,9 miliar) setelah mendapatkan telpon dari penipu yang menggunakan suara temannya. Setelah itu, pembicaraan tentang penipuan dengan MO tersebut sempat ramai di Weibo, media sosial Tiongkok.

Sang korban baru sadar bahwa dia telah ditipu setelah mengonfirmasi pada temannya. Kabar baiknya, setelah melaporkan kasus ini ke polisi, dia berhasil mendapatkan sebagian besar dari uangnya yang hilang. Dan polisi juga masih berusaha untuk bisa mendapatkan kembali seluruh uang korban, menurut laporan Reuters.

AI kini bisa digunakan untuk melakukan penipuan via telpon. | Sumber: Pexels

Model penipuan menggunakan suara tiruan ini tidak hanya terjadi di Tiongkok. Di Inggris, seorang CEO dari perusahaan energi juga menjadi korban. Dia mendapatkan telpon dari penipu, yang berpura-pura sebagai bosnya. Melalui telpon, dia diminta untuk mengirimkan EUR220 ribu (sekitar Rp3,5 miliar) ke akun bank di Hungaria.

Euler Hermes, yang merupakan ahli di bidang penipuan di Rüdiger Kirsch, mengatakan bahwa sang korban bisa tertipu dan percaya bahwa sang penipu merupakan bosnya karena dia sang penipu aksen Jerman dan memiliki “melodi” yang sama dengan suara bosnya.

Cara Meminimalisir Risiko Terkena Penipuan 

Untuk meminimalisir risiko tertipu oleh penipuan model baru ini, ada beberapa hal yang bisa Anda lakukan. Pertama, waspada ketika Anda mendapatkan telpon di waktu yang tidak terduga. Sekalipun, telpon itu datang dari orang yang Anda kenal. Pasalnya, sekarang, caller ID di smartphone pun bisa dipalsukan.

Jika Anda mendapatkan permintaan mencurigakan melalui telpon — seperti transfer sejumlah uang — tidak ada salahnya Anda memastikan hal ini terlebih dulu dengan orang yang bersangkutan.

Tak hanya teman dan keluarga, Anda juga harus tetap waspada saat mendapat telpon dari bank atau pihak berwajib lain. Ketika Anda menerima panggilan dari normel yang tak dikenal dan mengaku sebagai bank, Anda bisa segera menutup panggilan sebelum menelpon balik ke pihak bank untuk memastikan bahwa telpon yang Anda terima memang benar dari bank Anda, seperti yang disebutkan oleh Gizmodo.

Terakhir, Anda harus berhati-hati untuk tidak sembarangan memberikan informasi pribadi Anda, seperti nomor telpon, alamat, tanggal lahir, nama tengah, atau bahkan nama keluarga dan nama binatang peliharaan. Karena, para penipu bisa menggunakan data pribadi tersebut untuk mencuri identitas Anda dan mengakses rekening Anda.

Sumber header: Pexels

Starfield Direct
Previous Story

Starfield Direct Unjuk Gameplay Lengkap di Semesta Starfield

Jadwal rilis The Division Resurgence
Next Story

Game Mobile The Division Resurgence Resmi Dapatkan Jadwal Rilis

Latest from Blog

Don't Miss

Microsoft dan LinkedIn Sebut AI Sudah Memengaruhi Dunia Kerja di Seluruh Dunia

Bahkan Microsoft Corp dan LinkedIn berani menyebut bahwa AI kini

Pengguna X Premium Kini Bisa Gunakan Grok AI

Secara global, Elon Musk mengumumkan peluncuran Grok 1.5 pada akhir