Liputan6.com, Jakarta - Microsoft Research Asia telah meluncurkan alat AI eksperimental baru yang disebut VASA-1. AI ini dapat mengubah gambar seseorang, serta file audio yang sudah ada untuk membuat wajah dari foto tersebut berbicara gambar tersebut secara real-time.
Mengutip dari Engadget, Senin (22/4/2024), VASA-1 memiliki kemampuan untuk menghasilkan ekspresi wajah dan gerakan kepala dari gambar diam yang diunggah. Tidak hanya itu, AI ini juga dapat mencocokkan gerakan bibir dengan suara atau lagu yang diunggah bersamaan dengan foto yang ingin diubah menjadi video.
Baca Juga
Para peneliti di Microsoft telah menguji coba VASA-1 dengan mengunggah banyak sekali contoh hasil buatan AI ini di laman proyeknya. Hasilnya, video dari AI ini terlihat cukup nyata sehingga bisa membuat orang lain terkecoh dan menganggap video AI tersebut merupakan video asli.
Advertisement
Meskipun gerakan bibir dan kepala pada video yang dihasilkan oleh AI tersebut masih terlihat belum sesuai dengan audio yang diunggah, VASA-1 akan akan terus dikembangkan dan tidak menutup kemungkinan video AI yang dihasilkan akan jauh lebih terlihat seperti video asli.
Kendati demikian, fitur AI di VASA-1 ini disebut-sebut juga memiliki kemungkinan penyalahgunaan oleh orang tidak bertanggung jawab untuk membuat video deepfake dengan mudah dan cepat.
Terkait hal ini, para peneliti di Microsoft sudah menyadarinya. Karenanya, mereka memutuskan tidak merilis demo online, API, produk, detail implementasi tambahan, atau penawaran apa pun sampai mereka yakin teknologi ini dapat digunakan sesuai dengan peraturan yang ada.
VASA-1 Dirancang untuk Tingkatkan Aksesibilitas bagi Penyandang Disabilitas
Pihak Microsoft mengatakan, VASA-1 dapat digunakan untuk meningkatkan kesetaraan pendidikan, serta meningkatkan aksesibilitas bagi mereka yang memiliki kesulitan dalam berkomunikasi, dengan memberi akses berupa avatar yang bisa diajak berkomunikasi.
Namun, mereka tidak mengatakan apakah mereka berencana menerapkan aturan tertentu untuk mencegah pelaku kejahatan menggunakannya untuk tujuan jahat, seperti membuat konten AI yang meniru figur publik atau penyebaran berita hoax.
Menurut publikasi yang diterbitkan bersamaan dengan pengumuman tersebut, VASA-1 dilatih berdasarkan Kumpulan Data VoxCeleb2, yang berisi lebih dari 1 juta ucapan untuk 6.112 selebriti yang diambil dari video YouTube.
Advertisement
Forum Ekonomi Dunia Sebut Hoaks Didukung AI Jadi Ancaman Terbesar Ekonomi Global
Di sisi lain, penggunaan AI yang tidak bertanggung jawab dapat menyebabkan penyebaran hoax kian merebak, bahkan dapat mengancam perekonomian global.
Forum Ekonomi Dunia (WEF) menyatakan bahwa, risiko terbesar terhadap perekonomian global tahun ini adalah informasi palsu atau hoaks yang diproduksi oleh kecerdasan buatan atau artificial intelligence (AI). Menurut mereka, hal tersebut dapat mengancam, melemahkan demokrasi, dan mempolarisasi masyarakat.
Berdasarkan survei terhadap sekitar 1.500 pakar, pemimpin bisnis dan pembuat kebijakan, laporan ini dirilis menjelang pertemuan elit tahunan para CEO dan pemimpin dunia di Davos, Swiss.
Penelitian ini menyoroti pesatnya kemajuan teknologi, yang juga menyebabkan munculnya masalah baru, dan menyebut misinformasi dan disinformasi sebagai kekhawatiran paling serius selama dua tahun ke depan.
Para peneliti memperingatkan bahwa, pertumbuhan Chatbot AI generatif seperti ChatGPT, berarti pengembangan konten sintetis kompleks, yang digunakan untuk mengendalikan sekelompok orang, tidak lagi terbatas.
Pemimpin Manajemen Risiko di Marsh, Caroline Klint menyatakan, AI dapat dimanfaatkan pihak yang tidak bertanggung jawab untuk membuat hoaks dan bisa berdampak pada perilaku masyarakat.
"Masyarakat bisa semakin terpolarisasi, karena semakin sulitnya memverifikasi fakta. Informasi palsu juga bisa digunakan untuk memicu pertanyaan tentang legitimasi pemerintah terpilih, yang berarti proses demokrasi bisa terkikis dan hal ini juga akan semakin mendorong polarisasi masyarakat," ujar Klint dikutip dari voanews.com, Sabtu (20/4/2024).
Studi Ungkap Organisasi Media Kurang Memiliki Kebijakan Soal Gambar yang dihasilkan AI
Di sisi lain, terdapat penelitian yang menemukan bahwa organisasi media belum memiliki kebijakan terkait gambar yang dihasilkan oleh AI.
Penelitian yang dilakukan RMIT University juga melibatkan Washington State University dan QUT Media Research Centre. Mereka Mewawancarai 20 editor foto, dari 16 organisasi media publik dan komersial di Eropa, Australia dan Amerika Serikat, tentang persepsi mereka terhadap AI generatif dalam teknologi jurnalisme visual.
Dari 16 organisasi tersebut, lima organisasi melarang staf menggunakan AI untuk menghasilkan gambar, tiga organisasi hanya melarang gambar fotorealistik dan yang lainnya mengizinkan gambar yang dibuat oleh AI.
"Editor foto ingin bersikap transparan kepada audiensnya ketika teknologi AI generatif digunakan, namun organisasi media tidak dapat mengontrol perilaku manusia atau cara platform lain menampilkan informasi," ujar Peneliti Utama dan Dosen Senior RMIT, TJ Thomson.
"Lebih banyak organisasi media harus transparan dengan kebijakan mereka, sehingga audiens mereka juga dapat percaya bahwa konten mereka dibuat atau diedit sesuai dengan apa yang dikatakan oleh organisasi tersebut," ujar Thomson menambahkan.
Ia juga menambahkan jika sebuah media membuat kebijakan AI, mereka perlu mempertimbangkan semua bentuk komunikasi, termasuk gambar dan video, serta memberikan panduan yang lebih konkrit. Sehingga penggunaan AI generatif di ruang redaksi dapat mencegah terjadinya misinformasi dan disinformasi.
Advertisement