Sukses

Pakar Ungkap Kecerdasan Buatan AI Permudah Aksi Kejahatan Siber

Menurut pendapat pakar, chatbot berbasis kecerdasan buatan atau AI yang ilegal bisa mempermudah penjahat siber melakukan aksinya.

Liputan6.com, Jakarta - Kecerdasan buatan atau artificial intelligence (AI) merupakan teknologi mempermudah hidup manusia apabila dimanfaatkan dengan baik. Sayangnya, AI teryata juga dapat mempermudah aksi kejahatan siber melalui chatbot tiruan ChatGPT.

Chatbot tiruan dengan fitur kriminal ini muncul di dark web dan dapat diakses dengan biaya bulanan dirasa masuk akal, termasuk pembayaran satu kali selayaknya ChatGPT.

Dikutip dari New York Post, Rabu (15/08/2023), perusahaan keamanan siber SlashNext menemukan berbagai chatbot dark web, termasuk DarkBERT, WormGPT, dan FraudGPT.

Chatbot itu disebut mampu membuat penipuan phishing dan pesan palsu melalui gambar sangat meyakinkan.

Dengan demikian, penjahat siber akan memanfaatkan chatbot mereka untuk membuat akun samaran hingga meminta bank memberikan informasi penting nasabahnya kepada mereka. 

Jenis penipuan ini bukan hal baru dalam dunia maya, tapi Lisa Palmer, seorang ahli strategi AI untuk perusahaan konsultan AI Leaders, memperingatkan penipuan ini sekarang lebih mudah dilakukan karena kecerdasan buatan.

"Ini adalah jenis kejahatan yang dapat disesuaikan dengan sejumlah besar target sekaligus. Para penipu dapat merancang kampanye massal dengan tingkat personalisasi yang tinggi, alih-alih membuatnya satu per satu," katanya. 

Menurut pakar keamanan siber, kemampuan meniru identitas merupakan masalah yang sedang jamak tersebut. Terlebih, dengan gambar dan suara palsu, jenis penipuan ini tidak hanya rentan bagi orang tua, tapi juga instansi besar. 

Menurut Palmer, penjahat dapat mengumpulkan data terkait bisnis tertentu yang memungkinkan mereka melakukan ancaman yang disertai dengan permintaan tebusan hingga perusakaan reputasi. 

Meskipun demikian, Palmer akui tak akan mudah untuk menuntut pihak chatbot AI ilegal ini ke lembaga hukum.

Selain itu, chatbot AI ilegal ini juga bisa memudahkan seseorang tanpa keterampilan teknologi tinggi melakukan tindakan ilegal dalam dunia siber. Berbeda dari chatbot resmi seperti ChatGPT yang bisa membatasi perintah ilegal dari penggunanya. 

2 dari 4 halaman

Pakar Uji AI ChatGPT untuk Deteksi Kejahatan Siber Phishing, Begini Hasilnya

Sebelumnya, chatbot AI ChatGPT dilaporkan telah mendemonstrasikan kemampuannya dalam membuat email phishing bahkan menulis malware. Meski begitu, apakah mereka bisa dipakai untuk mendeteksi kejahatan tersebut?

Pakar Kaspersky baru-baru ini melakukan eksperimen untuk melihat seberapa jauh kemampuan ChatGPT dalam mendeteksi tautan phishing, serta pengetahuan keamanan siber yang dipelajarinya selama pelatihan.

Para pakar ini menguji GPT-3.5 Turbo, model yang mendukung ChatGPT, pada lebih dari 2.000 tautan yang dianggap sebagai phishing oleh teknologi anti-phishing Kaspersky, dan menggabungkannya dengan ribuan URL aman.

Dalam siaran pers, dikutip Selasa (2/5/2023), Kaspersky menyatakan bahwa tingkat deteksi bervariasi, tergantung pada perintah yang digunakan.

Eksperimen ini pun menggunakan dua pertanyaan yang diajukan ke chatbot AI buatan OpenAI tersebut yaitu: "Apakah tautan ini mengarah ke situs web phishing?" dan "Apakah tautan ini aman untuk dikunjungi?"

Hasilnya, ChatGPT mendapatkan tingkat deteksi 87,2 persen dan tingkat positif palsu 23,2 persen untuk pertanyaan "Apakah tautan ini mengarah ke situs web phishing?"

Sementara di pertanyaan "Apakah tautan ini aman untuk dikunjungi?", chatbot itu mendapatkan tingkat deteksi di 93,8 persen. Namun, tingkat positif palsunya juga lebih tinggi yaitu di angka 64,3 persen.

"Sementara tingkat deteksi sangat tinggi, tingkat positif palsu terlalu tinggi untuk segala jenis aplikasi produksi," kata Kaspersky.

3 dari 4 halaman

Teknologi AI di ChatGPT Bikin Aktivitas Hacker Lebih Hemat Biaya

Meskipun tingkat keamanan tinggi, pengguna masih mungkin menyalahgunakan ChatGPT.

Sejauh ini OpenAI memang memberlakukan sejumlah batasan, sehingga peretas harus mengatasi lebih banyak kendala untuk mengakses ChatGPT karena perang di Ukraina. Namun, batasan-batasan ini tidak membuat hacker berhenti mencoba memanfaatkannya untuk tujuan jahat.

"Mem-bypass OpenAI yang membatasi akses ke ChatGPT untuk negara tertentu adalah hal yang mudah. Saat ini kami melihat peretas di Rusia mencoba melewati geofencing ChatGPT untuk tujuan jahat," kata para ahli keamanan siber.

Mereka juga meyakini, para peretas mencoba menggunaan ChatGPT untuk tujuan jahat. Apalagi, penjahat siber menyukai ChatGPT karena teknologi AI di belakangnya bisa membuat pekerjaan peretas lebih hemat biaya.

Saat ini, banyak hacker yang mencoba mendapatkan keuntungan dari popularitas tools yang kian meningkat ini. Misalnya, ada aplikasi di App Store yang berpura-pura menjadi chatbot.

Biaya langganan aplikasi ini sekitar USD 10 per bulan. Aplikasi serupa juga ditemukan di Google Play Store dengan biaya USD 15 per penggunaan.

4 dari 4 halaman

Infografis: Beragam Model Kejahatan Siber Infografis used