Liputan6.com, Jakarta - Badan Pelindungan Pekerja Migran Indonesia (BP2MI) menegaskan video pendek Kepala BP2MI Benny Rhamdani yang memberikan bantuan kepada Pekerja Migran Indonesia senilai Rp1,5 miliar untuk 20 Pekerja Migran Indonesia adalah hoaks alias palsu.
Kepala Biro Hukum dan Humas BP2MI Hadi Wahyuningrum mengatakan, video itu diedarkan oleh oknum tidak bertanggungjawab di media sosial Facebook dengan akun palsu yaitu Badan Perlindungan Pekerja Migran Indonesia BP2MI.
Advertisement
"Akun tersebut dapat dipastikan dan nyatakan, adalah video palsu atau hoaks yang dibuat secara manipulatif menggunakan teknologi deepfake atau AI. Terkait hal ini kami dari BP2MI telah bersurat ke Kominfo dan melapor ke Polda Metro Jaya," ujar Wahyuningrum, melalui keterangan tertulis, Jumat (6/9/2024).
Dia menegaskan, BP2MI tidak pernah memberikan sejumlah uang sebagaimana video yang beredar dan apabila masyarakat menemukan video atau informasi serupa, maka dipastikan bahwa hal tersebut adalah hoaks.
"Kami mengimbau kepada para Pekerja Migran Indonesia untuk berhati-hati terhadap informasi mencurigakan yang berisi penipuan melalui akun palsu yang mengatasnamakan BP2MI. Informasi seputar Pekerja Migran Indonesia, hanya dapat diakses melalui akun resmi BP2MI," terang Wahyuningrum.
BP2MI sebagaimana mandat UU 18/17 tentang Pelindungan Pekerja Migran Indonesia tidak akan berhenti untuk terus berkoordinasi dan berkomunikasi secara intensif dengan Kementerian/Lembaga terkait, baik Polri, Kementerian Komunikasi dan Informatika (Kominfo), serta Badan Siber dan Sandi Negara (BSSN) untuk terus memerangi hoax yang bisa merugikan para Pekerja Migran Indonesia.
Teknologi Deepfake
Seperti diketahui, deepfake merupakan teknologi yang menggunakan kecerdasan buatan (AI) untuk membuat atau memanipulasi gambar, video, atau audio agar terlihat atau terdengar seperti seseorang, padahal sebenarnya tidak.
Deepfake sering digunakan untuk mengubah wajah atau suara seseorang dalam video dengan sangat realistis, sehingga tampak seperti orang tersebut benar-benar mengatakan atau melakukan sesuatu yang sebenarnya tidak pernah terjadi.
Tidak hanya itu, teknologi ini juga bisa digunakan untuk tujuan hiburan, seperti membuat video parodi, namun juga memiliki potensi untuk disalahgunakan, misalnya untuk penyebaran informasi palsu atau manipulasi politik.
Deepfake bekerja dengan menggunakan teknik pembelajaran mesin, seperti jaringan saraf tiruan, untuk "belajar" dari data wajah dan suara seseorang dan kemudian mereproduksi mereka dalam situasi yang berbeda.
Advertisement