Liputan6.com, Jakarta - Perusahaan teknologi Korea Selatan Samsung, dikabarkan memblokir perangkat karyawannya, dari memakai layanan kecerdasan buatan atau artificial intelligence (AI) generatif seperti ChatGPT, Microsoft Bing, dan Google Bard.
Hal itu dilakukan satu bulan setelah data internal dan sensitif dari perusahaan, secara tak sengaja bocor ke ChatGPT.
Advertisement
Samsung kabarnya merencanakan pemblokiran sementara penggunaan AI generatif pada perangkat milik perusahaan seperti komputer, tablet, dan ponsel, serta perangkat yang bukan milik kantor tapi beroperasi di jaringan internal.
Namun, menurut laporan Bloomberg, aturan pelarangan AI generatif seperti Chat GPT ini hanya akan berlaku untuk perangkat kantor Samsung untuk karyawannya. Jadi, konsumen dan pengguna HP, laptop, dan perangkat Samsung lain, tidak akan terpengaruh.
Mengutip Tech Crunch, Rabu (3/5/2023), dalam memo yang dilihat oleh Bloomberg, pembatasan bagi karyawan Samsung ini bersifat sementara.
Aturan ini dilakukan pada karyawan Samsung sampai terbangun "langkah-langkah keamanan demi menciptakan lingkungan yang aman untuk menggunakan AI generatif dengan aman guna meningkatkan produktivitas dan efisiensi karyawan."
Perusahaan juga mengatakan sedang mengembangkan alat AI internalnya untuk "pengembangan dan penerjemahan perangkat lunak" buatannya sendiri.
Sebelumnya, sejumlah karyawan Samsung disebut membocorkan informasi rahasia setidaknya tiga kali. Demikian menurut The Economist Korea, dikutip dari Engadget, Minggu (9/4/2023).
Kebocoran itu sendiri terjadi setelah divisi semikonduktor Samsung mulai mengizinkan para engineers mereka untuk menggunakan AI ChatGPT.
3 Karyawan Samsung Bocorkan Data Sensitif Perusahaan ke ChatGPT
Seorang karyawan disebut meminta chatbot AI itu untuk memeriksa kode sumber database sensitif untuk kesalahan.
Karyawan kedua minta pengoptimalan kode, lalu karyawan ketiga memasukkan rekaman rapat ke ChatGPT dan meminta untuk mentranskipsikannya.
Laporan menunjukkan, setelah mengetahui masalah keamanan, Samsung berusaha membatasi tingkat kecerobohan di masa mendatang dengan membatasi permintaan ChatGPT hingga satu kilobyte, atau 1024 karakter teks.
Perusahaan juga dikabarkan sedang menyelidiki ketiga karyawan tersebut dan membangun chatbot AI sendiri untuk mencegah kecelakaan serupa.
Kebijakan data ChatGPT menyatakan bahwa, kecuali pengguna memilih keluar secara eksplisit, ChatGPT akan menggunakan permintaan mereka untuk melatih mesinnya.
Pemilik chatbot, OpenAI, mendesak pengguna untuk tidak membagikan informasi rahasia dengan ChatGPT dalam percakapan karena 'tidak dapat menghapus petunjuk spesifik dari riwayat pengguna'.
Advertisement
Aturan Penggunaan AI di Tempat Lain
Satu-satunya cara untuk menghilangkan informasi pribadi di ChatGPT adalah dengan menghapus akun, sebuah proses yang dapat memakan waktu hingga empat minggu.
Lebih lanjut, Samsung juga meminta karyawan yang memakai alat AI di tempat lain "bukan untuk mengirimkan informasi atau data pribadi apa pun yang terkait dengan perusahaan" yang dapat mengungkapkan kekayaan intelektual.
Salah satu masalah yang dicatat Samsung adalah kesulitan untuk "mengambil dan menghapus" data di server eksternal, dan data yang dikirimkan ke alat AI itu dapat diungkapkan ke pengguna lain.
Di Korea Selatan, perusahaan teknologi besar lain seperti LG dan pembuat chip memori SK Hynix, dilaporkan berusaha untuk membuat pedomannya sendiri dalam menggunakan alat AI generatif.
(Dio/Isk)
Infografis Film Bertema Masa Depan Bumi
Advertisement