Sukses

Gara-Gara Bug, Konten Berbau Terorisme di Facebook Sulit Dihapus

Facebook gagal menghapus sejumlah unggahan berbau terorisme gara-gara ada sebuah bug di sistemnya.

Liputan6.com, Jakarta - Facebook gagal menghapus sejumlah unggahan berbau terorisme gara-gara ada sebuah bug di sistemnya. Hal ini diakui oleh Facebook, sebagaimana dikutip Tekno Liputan6.com dari Telegraph, Senin (12/11/2018).

Jejaring sosial raksasa itu memang tengah ditekan oleh berbagai pihak untuk mengeliminasi konten-konten berbau terorisme dari platform-nya.

Alih-alih demikian, Facebook menyalahkan adanya kesalahan teknis sehingga butuh waktu lebih lama untuk men-take down unggahan berbau terorisme.

Misalnya saja, sejumlah unggahan butuh waktu berminggu-minggu atau berbulan-bulan sebelum terhapus.

Gara-gara bug itu, kemampuan Facebook untuk mengawasi konten negatif di platform-nya makin dipertanyakan. Apalagi, Facebook kabarnya telah berinvestasi lebih untuk menerapkan tool yang bisa menghapus gambar terkait terorisme secara otomatis.

Facebook menyebut, rata-rata waktu untuk mengambil tindakan pada unggahan (konten negatif) yang baru diunggah antara satu menit hingga 14 jam, pada April hingga Juli. Hal ini karena perusahaan perlu memperbaiki bug yang melarang penghapusan konten-konten lawas.

Facebook Global Head of Policy Management, Monika Bikert mengatakan, "peningkatan waktu ini didorong beberapa faktor, salah satunya karena harus memperbaiki bug yang mencegah kami menghapus beberapa konten yang melanggar kebijakan."

Waktu tersebut turun lagi menjadi kurang dari dua menit pada kuartal ketiga tahun ini. Facebook menyebut, hal ini karena teknologi baru yang dipakai untuk menghapus unggahan terkait terorisme terus diperbarui dari waktu ke waktu. Meski begitu, Facebook mengatakan, penghapusan itu mungkin tak berfungsi dengan sangat cepat.

"Ini bisa mengakibatkan peningkatan waktu untuk tindakan (penghapusan konten), meskipun fakta perbaikan merupakan upaya penting menghapus konten terorisme," tutur perusahaan.

2 dari 3 halaman

Hapus 14,3 Juta Konten Terorisme

Facebook mengumumkan, pada kuartal kedua tahun ini telah menghapus 2,2 juta konten negatif yang baru diunggah berkat teknologi anyar tersebut.

Sementara, pada kuartal pertama 2018, jumlah unggahan yang dihapus jumlahnya mencapai 1,2 juta konten.

Sehingga tahun ini, secara total, Facebook telah menghapus lebih dari 14,3 juta unggahan terkait terorisme. Unggahan ini termasuk yang baru saja di-upload, unggahan lama, dan konten yang dilaporkan oleh pengguna.

Facebook diketahui menggunakan AI (kecerdasan buatan) untuk menemukan unggahan yang berpotensi terorisme. Misalnya saja unggahan terkait dengan ISIS.

AI kemudian memberi peringkat pada tiap unggahan, peringkat ini menunjukkan kemungkinan seberapa besar dukungan terorisme.

Tidak hanya itu, Facebook juga menggunakan pengkaji (reviewer) manusia. Setelah AI bekerja, para pengkaji ini akan memprioritaskan berdasarkan peringkat, mana unggahan yang perlu lebih dahulu dihapus.

Unggahan yang paling awal dihapus oleh para pengkaji adalah unggahan yang terkait dengan konten terorisme.

3 dari 3 halaman

Gunakan Machine Learning

Facebook menyatakan, perusahaan menggunakan machine learning untuk membantu mempersingkat waktu yang dibutuhkan untuk menghapus unggahan yang dilaporkan pengguna. Misalnya, tadinya butuh waktu 43 jam, dan kini menjadi 18 jam saja.

Upaya-upaya ini dilakukan untuk menghapus konten negatif di platform Facebook, setelah sebelumnya perusahaan mendapatkan kritikan dari berbagai pihak.

September lalu misalnya, Komisi Eropa mengatakan, Facebook, Google, dan perusahaan teknologi lainnya berpotensi kena sanksi denda jika tak menghapus konten-koten terkait terorisme dalam waktu sejam setelah dapat laporan dari otoritas sebuah negara.

(Tin/Ysl)

Saksikan Video Pilihan Berikut Ini: