Apple Ungkap 3 Fitur Baru untuk Cegah Pelecehan Seksual Anak

Apple akan merilis fitur baru di perangkat mereka untuk melindungi pengguna anak dari pelecehan seksual.

oleh Giovani Dio Prasasti diperbarui 07 Agu 2021, 08:00 WIB
iPhone (AP Photo/Charles Rex Arbogast, File)

Liputan6.com, Jakarta Apple mengeluarkan beberapa fitur baru untuk melindungi anak-anak dari predator pelecehan seksual yang menggunakan perangkat komunikasi untuk merekrut dan mengeksploitasi mereka.

Perusahaan teknologi asal Amerika Serikat (AS) itu menyebut, hal ini demi membatasi penyebaran materi pelecehan seksual anak (Child Sexual Abuse Material/CSAM).

"Program ini ambisius, dan melindungi anak adalah tanggung jawab penting. Upaya ini akan berevolusi dan berkembang seiring berjalannya waktu," tulis Apple.

Dalam laman resminya, dikutip Jumat (6/8/2021), ada tiga area dengan fitur baru tentang keselamatan anak. Menurut mereka, fitur itu dikembangkan bekerja sama dengan pakar keselamatan anak.

Pihak Apple mengungkapkan bahwa fitur-fitur tersebut akan hadir di tahun ini dalam pembaruan untuk iOS 15, iPadOS 15, watchOS 8, dan macOS Monterey.

Meski begitu, beberapa fitur untuk perangkat Apple ini tampaknya belum akan dirilis secara global dan masih terbatas bagi pengguna di AS.

 

* Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.


Aplikasi Pesan

Apple Store. Kredit: Michael Gaida via Pixabay

Aplikasi pesan akan ditambahkan fitur baru untuk memperingatkan anak-anak atau orangtua mereka, saat menerima atau mengirim foto seksual vulgar.

Saat menerima konten jenis ini, foto akan diburamkan dan anak akan diperingatkan, diberikan sumber daya yang bermanfaat, dan diyakinkan bahwa tidak apa-apa jika mereka tidak ingin melihat foto ini.

"Sebagai tindakan pencegahan tambahan, anak juga dapat diberi tahu bahwa, untuk memastikan mereka aman, orang tua mereka akan mendapatkan pesan jika mereka melihatnya," tulis Apple.

Hal serupa juga akan muncul jika anak mencoba mengirimkan foto seksual yang eksplisit. Mereka akan mendapat peringatan dan orangtua bisa menerima pesan jika anak memilih mengirimnya.


Deteksi CSAM

Menurut studi dan psikolog, ini alasan mengapa pelaku pelecehan berani meluncurkan aksinya di ruang publik. (FOTO: pexels/pixabay).

CSAM mengacu pada konten yang menggambarkan aktivitas seksual eksplisit yang melibatkan seorang anak.

Untuk itu, Apple memasang teknologi yang memungkinkan mereka mendeteksi gambar CSAM yang diketahui dan disimpan di iCloud Photos. Ini memungkinkan Apple melaporkan kejadian tersebut ke National Center for Missing and Exploited Children (NCMEC).

Apple mengatakan metode mereka untuk mendeteksi CSAM dirancang dengan mempertimbangkan privasi pengguna. Mereka juga menggunakan gambar dari database yang disediakan NCMECE dan organisasi keamanan anak lainnya.

Selain itu, mereka juga menetapkan ambang batas yang sangat tinggi sehingga mencegah salah menandai akun. Ketika batas terlewati, teknologi kriptografi memungkinkan Apple untuk menafsirkan isi voucher keamanan yang terkait dengan gambar CSAM yang cocok.

Mereka lalu secara manual meninjau laporan untuk mengonfirmasi apabila ada kecocokan, menonaktifkan akun pengguna, lalu mengirimkan laporan ke NCMEC. Apabila pengguna merasa akunnya salah ditandai, dia dapat mengajukan banding untuk pemulihan.

 


Perluasan Panduan Siri dan Search

Ilustrasi Apple Siri

Apple juga memperluas panduan di Siri dan Search dengan sumber daya tambahan untuk membantu anak dan orangtua tetap aman selama di internet, serta mendapatkan bantuan saat situasi tidak aman.

"Misalnya, pengguna yang bertanya kepada Siri bagaimana mereka dapat melaporkan CSAM atau eksploitasi anak akan diarahkan ke sumber daya untuk tempat dan cara mengajukan laporan," kata mereka.

(Dio/Isk)


INFOGRAFIS: 6 Tips Lindungi Diri dari Pelecehan Seksual

INFOGRAFIS: 6 Tips Lindungi Diri dari Pelecehan Seksual (Liputan6.com / Abdillah)

Rekomendasi

POPULER

Berita Terkini Selengkapnya