Sukses

Waspada, Kecerdasan Buatan atau AI Bisa Digunakan untuk Phising

Pada era digital, alat bantu kecerdasan buatan atau artificial intelligence (AI) digunakan oleh peretas untuk melakukan phishing.

Liputan6.com, Jakarta - Di era digital, alat bantu kecerdasan buatan atau artificial intelligence (AI) sering digunakan peretas untuk melakukan phishing yang lebih cerdas. Salah satu AI yang sedang populer belakangan ini adalah ChatGPT. 

Di tengah kepopulerannya, ChatGPT pun mengundang kontra dari beberapa pihak, seperti guru dan akademisi. Alasannya adalah karena kemudahan akses dan kecanggihan teknologi AI, terdapat kekhawatiran lainnya dalam penggunaan AI yang tidak bertanggung jawab. Salah satunya AI digunakan sebagai alat peretas.

Situs Spiceworks.com, Stu Sjouwerman, CEO KnowBe4, menjelaskan bagaimana penjahat siber mengadopsi AI untuk membuat email phishing dan cara-cara yang dapat dilakukan oleh berbagai pelaku bisnis maupun organisasi untuk melindungi diri mereka sendiri dari penipuan yang dibuat oleh AI.

Pesatnya perkembangan inovasi AI, para peneliti keamanan memberikan rambu peringatan bahwa AI dapat menjadi alat eksploitasi untuk melakukan tindak kejahatan siber, seperti phishing dengan mudah. 

Contoh terbaru saat ini adalah kehadiran ChatGPT yang menyediakan layanan chatbot AI yang didasarkan pada large language models (LLMs). Bahkan dalam waktu singkat ChatGPT dapat menggaet satu juta pengguna karena kemampuannya dalam menjawab pertanyaan-pertanyaan rumit, menulis esai, bahkan generate atau men-debug kode.

Maka dari itu, saat ini menjadi kode merah bagi banyak pihak, khususnya pelaku bisnis, lantaran para penjahat siber menggunakan AI yang tersedia secara umum untuk membuat serangan spear-phishing yang sangat canggih dan tepat sasaran.

2 dari 4 halaman

Bagaimana AI Dapat Digunakan Phishing?

Salah satu cara termudah untuk mengenali penipuan phising adalah dengan mencari kesalahan tata bahasa dan ejaan. Ini karena pelaku phising tidak selalu merupakan copywriter terbaik dan mungkin bukan penutur asli bahasa Inggris.

Tetapi dengan mengakses ke alat AI seperti ChatGPT, email bisa diketik dan diproduksi dengan frekuensi tinggi, tata bahasa yang benar, dan dalam skala besar.

Bahkan terdapat studi yang menunjukkan ChatGPT dapat digunakan untuk membuat alur infeksi penuh, merekayasa balik kode, dan menghasilkan malware dan ransomware sesuai permintaan. Peneliti juga percaya bahwa chatbot dengan kemampuan Natural Language Processing (NLP) yang canggih dapat melakukan lebih dari sekadar menyusun email phishing. Para analis percaya bahwa bot di masa depan akan berkomunikasi dengan korban menggunakan bahasa alami, seperti halnya makhluk hidup yang dapat meyakinkan korban untuk melakukan tindakan tertentu atau berbagi informasi sensitif.

Tahun lalu, pelaku ancaman menggunakan bot AI seperti SMSRanger dan BloodOTPbot untuk meluncurkan credential harvesting attack, di mana bot secara otomatis menindaklanjuti korban untuk menangkap kode otentikasi mereka yang disebut multi-factor authentication (MFA).

Tetapi Chatbot AI bukan satu-satunya alat AI yang akan digunakan oleh para pelaku phishing. AI mampu menghasilkan persona digital manusia yang sangat realistis alias deepfakes. Mulai dari audio, video, atau gambar sintetis yang juga dapat digunakan untuk phishing, serangan siber, dan aktivitas penipuan lainnya. Misalnya, pelaku mengkloning suara direktur bank dan meyakinkan karyawannya untuk mentransfer uang sesuai nominal yang diminta.

3 dari 4 halaman

Bagaimana Bisnis Dapat Melindungi Diri dari AI Phishing?

Bagaimana bisnis dapat melindungi diri mereka sendiri dari AI phising? Jawabannya tidak terletak pada alat atau teknologi saja, tetapi pada budaya dan perilaku aman pengguna. Berikut ini beberapa praktik terbaik yang dapat membantu untuk melindungi bisnis atau organisasi dari AI phising:

  • Menjalankan program pelatihan kesadaran keamanan (security awareness training) secara berkala sehingga karyawan memahami apa yang boleh dan tidak boleh dilakukan, praktik terbaik, dan ekspektasi.
  • Melakukan simulasi phising dengan menggunakan serangan nyata yang telah diubah sehingga karyawan mendapatkan pengalaman langsung tentang bagaimana penipuan phising yang canggih di dunia nyata terlihat dan bekerja.
  • Melaporkan aktivitas yang mencurigakan kepada tim keamanan dengan Tombol Peringatan Phising (Phish Alert Button).
  • Mengembangkan sikap skeptis yang sehat dan tidak mempercayai semuanya begitu saja. Waspadai pemalsuan, cari isyarat visual seperti distorsi atau ketidakkonsistenan pada gambar dan video, gerakan kepala dan tubuh yang tidak biasa, serta masalah sinkronisasi antara wajah, bibir, dan audio.
  • Melatih karyawan untuk memvalidasi keaslian permintaan dengan menggunakan saluran komunikasi yang berbeda, terutama jika ada permintaan yang tidak biasa, tekanan atau urgensi yang tiba-tiba untuk melakukan sesuatu yang melibatkan transfer uang dalam jumlah besar.
  • Menginstruksikan karyawan untuk mematuhi kebijakan dan praktik terbaik perusahaan (penggunaan kata sandi yang kuat, penggunaan media sosial yang bertanggung jawab, penjelajahan yang aman, dan lainnya).
  • Menggunakan teknologi seperti MFA yang tahan phising dan zero-trust security untuk menurunkan risiko pengambilalihan akun dan penipuan identitas.
  • Mengajak manajemen senior untuk secara aktif mendukung keamanan siber.
4 dari 4 halaman

Tentang Cek Fakta Liputan6.com

Melawan hoaks sama saja melawan pembodohan. Itu yang mendasari kami membuat Kanal Cek Fakta Liputan6.com pada 2018 dan hingga kini aktif memberikan literasi media pada masyarakat luas.

Sejak 2 Juli 2018, Cek Fakta Liputan6.com bergabung dalam International Fact Checking Network (IFCN) dan menjadi partner Facebook. Kami juga bagian dari inisiatif cekfakta.com. Kerja sama dengan pihak manapun, tak akan mempengaruhi independensi kami.

Jika Anda memiliki informasi seputar hoaks yang ingin kami telusuri dan verifikasi, silahkan menyampaikan di email cekfakta.liputan6@kly.id.

Ingin lebih cepat mendapat jawaban? Hubungi Chatbot WhatsApp Liputan6 Cek Fakta di 0811-9787-670 atau klik tautan berikut ini.