Liputan6.com, Jakarta - TikTok menghapus lebih dari 104 juta video dari platform-nya hingga pertengahan tahun 2020. Video yang dihapus adalah konten yang dianggap melanggar kebijakan komunitas TikTok.
Jumlah video yang dihapus ini setara dengan 1 persen dari keseluruhan video yang diunggah di TikTok. Mengutip ZDNet, Kamis (24/9/2020), video yang dihapus kebanyakan berasal dari pengguna di India (37,68 juta video) dan Amerika Serikat (9,82 juga video).
Baca Juga
Advertisement
Disebutkan TikTok dalam laporan transparansinya, 96,4 persen video diidentifikasi dan dihapus pihak TikTok sebelum pengguna melaporkannya. Sementara, 90,3 persen video dihapus sebelum ditonton oleh para pengguna.
Mayoritas, yakni 30,9 persen video dihapus karena mengandung ketelanjangan dan aktivitas seksual. Adapun 22,3 persen dihapus karena melanggar keselamatan minor, dan 19,6 persen dihapus karena aktivitas ilegal.
Selain India dan Amerika Serikat, video-video yang dihapus oleh TikTok juga banyak berasal dari Pakistan (6,45 juta video), Brasil (5,53 juta video), dan Inggris (2,95 juta video).
Saksikan Video Pilihan Berikut Ini
Patuhi Permintaan Pemerintah Berbagai Negara
Penghapusan video yang dianggap melanggar aturan ini juga dilakukan untuk memenuhi permintaan dari pemerintah dan penegak hukum di seluruh dunia.
Permintaan tersebut diajukan sesuai dokumen hukum dari pemerintah sebuah negara, misalnya panggilan pengadilan, surat pemerintah, ataupun permintaan darurat lainnya.
Di antara jumlah tersebut, India mengajukan paling banyak permintaan (1.206 permintaan), yang dipenuhi oleh TikTok sebanyak 79 persen.
Sementara AS melayangkan 290 permintaan dan dipenuhi 85 persen. Israel mengajukan 41 permintaan dan TikTok memenuhi 85 persen, terakhir Jerman yang mengajukan 37 permintaan tetapi hanya dipenuhi 16 persen.
Dalam pernyataan terpisah, General Manager TikTok Vanessa Pappas menyebut, pihaknya mengirimkan surat pada 9 bos platform medsos.
Advertisement
Ajak Medsos Saling Berkolaborasi
Isinya adalah mengusulkan Nota Kesepahaman yang bertujuan untuk mendorong perusahaan saling memperingatkan tentang adanya konten yang dianggap tidak pantas di platform masing-masing.
"Platform medsos terus ditantang dengan banyaknya unggahan berbahaya (yang diunggah berulang kali di berbagai platform) dan ini mempengaruhi kita semua, baik tim maupun komunitas," kata Pappas dalam pernyataan.
Ia melanjutkan, ketika konten berpindah dari satu aplikasi ke aplikasi lain, kadang dibiarkan, padahal konten tersebut tidak aman.
"Teknologi harusnya bisa membantu mendeteksi dan membatasi secara otomatis, dibantu oleh moderator manusia," katanya.
Pappas mengatakan, tiap upaya menangani konten negatif akan membuahkan hasil lebih baik jika dilakukan secara kolaboratif.
"Dengan bekerja sama membuat bank hash untuk konten dan grafis kekerasan, kita bisa mengurangi kemungkinan menyebarnya konten negatif secarasignifikan," katanya.
(Tin/Isk)