Liputan6.com, Jakarta - Samsung dilaporkan tengah membuat tool berbasis kecerdasan buatan atau Artificial Intelligence (AI) yang dirancang khusus untuk penggunaan internal. Langkah ini dilakukan seiring dengan kasus kebocoran data akibat kelalaian dalam penggunaan alat AI.Â
Dilansir Gizmochina, Minggu (21/5/2023), raksasa teknologi asal Korea Selatan tersebut menjalin kerja sama dengan Naver untuk merestrukturisasi lingkungan perusahaannya melalui pengembangan AI.
Baca Juga
Dengan pengembangan AI untuk internal, perusahaan akan melarang penggunaan pihak ketiga, seperti ChatGPT dan Google Bard. Hal ini menjadi langkah proaktif untuk melindungi data kepemilikan dan kekayaan intelektualnya.Â
Advertisement
Platform AI ini disebut akan berada dalam server Samsung yang aman. Hal dilakukan untuk memastikan informasi sensitif seperti semikonduktor maupun kode hak milik tetap terlindungi dari akses tidak sah.
Salah satu keunggulan kolaborasi ini terletak pada tingkat pemahaman platform tersebut pada bahasa Korea. Chatbot AI ini akan mampu memahami dan merespons bahasa Korea lebih akurat dibandingkan AI lainnya.Â
Melalui kehadiran AI ini pula, Samsung ingin memberikan pengalaman yang intuitif pada karyawannya.
Sebagai permulaan, platform tersebut akan ditujukan kepada Device Solution Division. Nantinya, AI tersebut mendapatkan pengujian yang ketat untuk mengoptimalkan kinerja dan kompabilitasnya.
AI Menyederhanakan Alur Kerja Karyawan
Setelah melewati proses evaluasi, AI akan diperluas secara bertahap ke divisi Samsung lainnya, termasuk Device eXperience.
Dengan AI eksklusif ini, Samsung akan menyederhanakan alur kerja internalnya. Diharapkan, karyawan dapat meningkatkan produktivitas, efisiensi, dan kolaborasi baru, sekaligus menjaga keamanan data secara maksimal.
Tak hanya Samsung, Microsoft juga telah berencana untuk mengatasi masalah kebocoran data ini. Perusahaan dikabarkan sedang mengembangkan versi premium dan ChatGPT yang akan bekerja di server khusus untuk melayani urusan bisnis.Â
Advertisement
3 Karyawan Samsung Bocorkan Data Sensitif Perusahaan ke ChatGPT
Sebelumnya, seorang karyawan Samsung disebut meminta chatbot AI itu untuk memeriksa kode sumber database sensitif untuk kesalahan.
Karyawan kedua minta pengoptimalan kode, lalu karyawan ketiga memasukkan rekaman rapat ke ChatGPT dan meminta untuk mentranskipsikannya.
Laporan menunjukkan, setelah mengetahui masalah keamanan, Samsung berusaha membatasi tingkat kecerobohan di masa mendatang dengan membatasi permintaan ChatGPT hingga satu kilobyte, atau 1024 karakter teks.
Perusahaan juga dikabarkan sedang menyelidiki ketiga karyawan tersebut dan membangun chatbot AI sendiri untuk mencegah kecelakaan serupa.
Kebijakan data ChatGPT menyatakan bahwa, kecuali pengguna memilih keluar secara eksplisit, ChatGPT akan menggunakan permintaan mereka untuk melatih mesinnya.
Pemilik chatbot, OpenAI, mendesak pengguna untuk tidak membagikan informasi rahasia dengan ChatGPT dalam percakapan karena 'tidak dapat menghapus petunjuk spesifik dari riwayat pengguna'.Â
Aturan Penggunaan AI di Tempat Lain
Satu-satunya cara untuk menghilangkan informasi pribadi di ChatGPT adalah dengan menghapus akun, sebuah proses yang dapat memakan waktu hingga empat minggu.
Lebih lanjut, Samsung juga meminta karyawan yang memakai alat AI di tempat lain "bukan untuk mengirimkan informasi atau data pribadi apa pun yang terkait dengan perusahaan" yang dapat mengungkapkan kekayaan intelektual.
Salah satu masalah yang dicatat Samsung adalah kesulitan untuk "mengambil dan menghapus" data di server eksternal, dan data yang dikirimkan ke alat AI itu dapat diungkapkan ke pengguna lain.
Di Korea Selatan, perusahaan teknologi besar lain seperti LG dan pembuat chip memori SK Hynix, dilaporkan berusaha untuk membuat pedomannya sendiri dalam menggunakan alat AI generatif.Â
Advertisement