Liputan6.com, Jakarta - Beberapa mantan karyawan OpenAI menuliskan surat terbuka berisi peringatan. Dalam surat itu, para mantan karyawan menyebut, OpenAI membungkam kritik mereka yang khawatir terhadap keamanan AI alias kecerdasan buatan.
Surat terbuka tersebut ditandatangani oleh 13 mantan karyawan OpenAI. Surat ini menyatakan, tidak adanya pengawasan pemerintah yang efektif terkait keamanan AI. Dalam suratnya, mereka juga perusahaan AI agar lebih berkomitmen pada prinsip kritik terbuka.
Advertisement
Mengutip The Verge, Minggu (9/6/2024), inisiatif pelayangan surat terbuka itu dilatarbelakangi perusahaan AI, khususnya OpenAI, yang dinilai tak memiliki keselamatan yang memadahi.
Selain OpenAI, Google juga mendapat kritikan keras karena tetap mempertahankan penggunaan fitur AI Overview dalam Google Search, bahkan setelah orang-orang mengklaim fitur tersebut memberikan hasil yang nyeleneh.
Selain dua perusahaan itu, Microsoft juga mendapat kecaman karena Copilot Designer-nya, yang menghasilkan gambar AI berbau seksual.
Prinsip kritik yang tertulis pada surat tersebut termasuk menghindari pembuatan dan penegakan klausul yang tidak meremehkan, memfasilitasi pelaporan oleh pihak anonim yang “dapat diverifikasi” untuk melaporkan masalah.
Tak hanya itu, surat yang ditulis mantan karyawan OpenAI ini juga menginginkan agar karyawan saat ini dan mantan karyawan dapat menyampaikan kekhawatirannya mengenai AI kepada publik secara bebas, tanpa perlu merasa ketakutan jika perusahaan teknologi membalas "serangan" mereka.
Surat tersebut menyatakan bahwa meskipun mereka percaya pada potensi AI untuk memberikan manfaat bagi masyarakat, mereka juga melihat adanya risiko. Mulai dari meningkatnya kesenjangan, manipulasi dan informasi yang salah, serta kemungkinan kepunahan manusia.
Pelapor Kelemahan Keamanan AI Tak Dilindungi Penuh
Surat tersebut juga mengatakan kalau pihak pelapor yang melaporkan kekhawatiran AI tidak dilindungi secara penuh.
Padahal, Departemen Tenaga Kerja AS menyatakan bahwa pekerja yang melaporkan pelanggaran upah, diskriminasi, keselamatan, penipuan, dan penundaan waktu istirahat dilindungi oleh undang-undang perlindungan pelapor. Itu artinya,npemberi kerja tidak dapat memecat, memberhentikan, mengurangi jam kerja, atau memecat pelapor.
“Beberapa dari kita cukup takut akan adanya berbagai bentuk pembalasan, mengingat sejarah kasus-kasus serupa di seluruh industri. Kami bukan orang pertama yang menghadapi atau membicarakan masalah ini,” tulis surat itu.
Baru-baru ini, beberapa peneliti OpenAI mengundurkan diri setelah perusahaan tersebut membubarkan tim “Superalignment”. Tim ini yang berfokus pada penanganan risiko jangka panjang AI, dan kepergian salah satu pendiri OpenAI, Ilya Sutskever, yang telah memperjuangkan keselamatan di perusahaan.
Salah satu mantan peneliti, Jan Leike, mengatakan bahwa, “Budaya dan proses keselamatan tidak lagi menjadi prioritas bagi produk yang cemerlang di OpenAI."
Advertisement
OpenAI Sebut Ada Perusahaan Israel Pakai AI untuk Sebar Disinformasi
Di sisi lain, OpenAI merilis laporan yang menyebutkan kalau tool kecerdasan buatan dipakai dalam operasi rahasia dari Israel, Rusia, Tiongkok, dan Iran untuk menyebar disinformasi.
Mengutip The Guardian, Kamis (6/6/2024), aktor jahat menggunakan model AI generatif dari OpenAI untuk membuat dan mengunggah konten propaganda di seluruh platform media sosial. AI generatif juga dipakai untuk menerjemahkan konten tersebut ke bahasa berbeda.
Laporan juga mengungkap, sejauh ini tak satu pun dari kampanye jahat menjangkau khalayak luas.
Namun, karena AI generatif telah menjadi industri yang booming, ada kekhawatiran luas di kalangan peneliti dan anggota parlemen kalau AI akan dipakai untuk meningkatkan kuantitas disinformasi di internet.
Pembesut ChatGPT, OpenAI, sebelumnya mencoba meredakan kekhawatiran ini dan menerapkan batasan pada teknologi mereka.
Salah satu caranya dengan laporan 39 halaman dari OpenAI, tentang penggunaan software mereka (oleh pihak tak bertanggung jawab) untuk propaganda.
OpenAI mengklaim, para peneliti mereka menemukan dan melarang akun yang terkait dengan lima operasi selama tiga bulan terakhir yang berasal dari aktor negara dan swasta.
Untuk kasus di Rusia misalnya, dua operasi membuat dan menyebarkan konten mengkritik AS, Ukraina, dan beberapa negara Baltik lainnya.
Salah satu operasi menggunakan model OpenAI untuk men-debug kode dan membuat bot yang diunggah di Telegram.
Perusahaan Israel Pakai AI untuk Bikin dan Sebar Disinformasi
Pengaruh operasi Tiongkok, di sisi lain, telah menghasilkan teks dalam bahasa Inggris, Tiongkok, Jepang, dan Korea yang kemudian diunggah di X alias Twitter dan di Medium.
Adapun aktor Iran, menghasilkan artikel dengan bantuan AI. Artikel ini bersifat menyerang AS dan Israel. Artikel kemudian diterjemahkan ke bahasa Inggris dan Prancis.
Lalu, sebuah perusahaan politik asal Israel bernama Stoic menjalankan jaringan akun media sosial palsu yang membuat berbagai konten. Termasuk di antaranya unggahan yang menuding protes mahasiswa AS terhadap serangan Israel ke Gaza adalah tindakan antisemit.
Meta di sisi lain, juga memblokir perusahaan Israel Stoic dari platformnya, karena dianggap sudah melanggar kebijakan.
Advertisement