Samsung Larang Karyawan Pakai ChatGPT hingga Bing Usai Kasus Kebocoran Data

Samsung meminta karyawannya untuk tidak menggunakan alat AI seperti ChatGPT, Bing, dan Bard di perangkat mereka, usai insiden kebocoran data beberapa waktu lalu

oleh Giovani Dio Prasasti diperbarui 03 Mei 2023, 16:00 WIB
Ilustrasi tampilan ChatGPT di ponsel. (unsplash/Rolf van Root)

Liputan6.com, Jakarta - Perusahaan teknologi Korea Selatan Samsung, dikabarkan memblokir perangkat karyawannya, dari memakai layanan kecerdasan buatan atau artificial intelligence (AI) generatif seperti ChatGPT, Microsoft Bing, dan Google Bard.

Hal itu dilakukan satu bulan setelah data internal dan sensitif dari perusahaan, secara tak sengaja bocor ke ChatGPT.

Samsung kabarnya merencanakan pemblokiran sementara penggunaan AI generatif pada perangkat milik perusahaan seperti komputer, tablet, dan ponsel, serta perangkat yang bukan milik kantor tapi beroperasi di jaringan internal.

Namun, menurut laporan Bloomberg, aturan pelarangan AI generatif seperti Chat GPT ini hanya akan berlaku untuk perangkat kantor Samsung untuk karyawannya. Jadi, konsumen dan pengguna HP, laptop, dan perangkat Samsung lain, tidak akan terpengaruh.

Mengutip Tech Crunch, Rabu (3/5/2023), dalam memo yang dilihat oleh Bloomberg, pembatasan bagi karyawan Samsung ini bersifat sementara.

Aturan ini dilakukan pada karyawan Samsung sampai terbangun "langkah-langkah keamanan demi menciptakan lingkungan yang aman untuk menggunakan AI generatif dengan aman guna meningkatkan produktivitas dan efisiensi karyawan."

Perusahaan juga mengatakan sedang mengembangkan alat AI internalnya untuk "pengembangan dan penerjemahan perangkat lunak" buatannya sendiri.

Sebelumnya, sejumlah karyawan Samsung disebut membocorkan informasi rahasia setidaknya tiga kali. Demikian menurut The Economist Korea, dikutip dari Engadget, Minggu (9/4/2023).

Kebocoran itu sendiri terjadi setelah divisi semikonduktor Samsung mulai mengizinkan para engineers mereka untuk menggunakan AI ChatGPT.

 


3 Karyawan Samsung Bocorkan Data Sensitif Perusahaan ke ChatGPT

Samsung logo (androidauthority.com)

Seorang karyawan disebut meminta chatbot AI itu untuk memeriksa kode sumber database sensitif untuk kesalahan.

Karyawan kedua minta pengoptimalan kode, lalu karyawan ketiga memasukkan rekaman rapat ke ChatGPT dan meminta untuk mentranskipsikannya.

Laporan menunjukkan, setelah mengetahui masalah keamanan, Samsung berusaha membatasi tingkat kecerobohan di masa mendatang dengan membatasi permintaan ChatGPT hingga satu kilobyte, atau 1024 karakter teks.

Perusahaan juga dikabarkan sedang menyelidiki ketiga karyawan tersebut dan membangun chatbot AI sendiri untuk mencegah kecelakaan serupa.

Kebijakan data ChatGPT menyatakan bahwa, kecuali pengguna memilih keluar secara eksplisit, ChatGPT akan menggunakan permintaan mereka untuk melatih mesinnya.

Pemilik chatbot, OpenAI, mendesak pengguna untuk tidak membagikan informasi rahasia dengan ChatGPT dalam percakapan karena 'tidak dapat menghapus petunjuk spesifik dari riwayat pengguna'. 


Aturan Penggunaan AI di Tempat Lain

Tampilan ChatGPT. (unsplash/Rolf van Root)

Satu-satunya cara untuk menghilangkan informasi pribadi di ChatGPT adalah dengan menghapus akun, sebuah proses yang dapat memakan waktu hingga empat minggu.

Lebih lanjut, Samsung juga meminta karyawan yang memakai alat AI di tempat lain "bukan untuk mengirimkan informasi atau data pribadi apa pun yang terkait dengan perusahaan" yang dapat mengungkapkan kekayaan intelektual.

Salah satu masalah yang dicatat Samsung adalah kesulitan untuk "mengambil dan menghapus" data di server eksternal, dan data yang dikirimkan ke alat AI itu dapat diungkapkan ke pengguna lain.

Di Korea Selatan, perusahaan teknologi besar lain seperti LG dan pembuat chip memori SK Hynix, dilaporkan berusaha untuk membuat pedomannya sendiri dalam menggunakan alat AI generatif. 

(Dio/Isk)


Infografis Film Bertema Masa Depan Bumi

Infografis film dengan tema kehancuran bumi di masa depan (Triyasni/Liputan6.com)

Rekomendasi

POPULER

Berita Terkini Selengkapnya