Liputan6.com, Jakarta - Chatbot kecerdasan buatan (artificial intelligence/AI) yang ditanamkan Microsoft dalam mesin pencari mereka, Bing, sempat bikin heboh karena memberikan jawaban salah, memanipulasi emosional, hingga bersikap kasar ke pengguna.
Akhirnya, Microsoft pun menyatakan mereka memberikan batasan percakapan ke chatbot AI Bing, sebanyak 50 pertanyaan per hari dan lima dalam satu kali sesi. Pengumuman ini mereka sampaikan melalui blog-nya.
Baca Juga
Meta Bangun Mesin Pencari AI untuk Kurangi Ketergantungan Pengguna Facebook pada Google dan Bing
Istana Buckingham Ungkap Perkembangan Terkini Kanker Raja Charles III, Perawatan Berlanjut Tahun 2025
Bintang Legenda Ular Putih, Angie Chiu dan Cecilia Yip Reuni di Atas Panggung dengan Pesona Bagaikan Anak Muda
"Data kami telah menunjukkan bahwa sebagian besar orang menemukan jawaban yang mereka cari dalam waktu 5 putaran dan hanya sekitar 1 persen dari percakapan obrolan yang memiliki 50+ pesan," kata Microsoft.
Advertisement
Mengutip The Verge, Selasa (21/2/2023), jadi, apabila pengguna sudah mencapai batas lima per sesi, Bing akan meminta mereka untuk memulai topik yang baru, demi menghindari sesi obrolan bolak balik yang lama.
Melalui pengumuman terbarunya, Microsoft pun mengakui mereka masih bekerja untuk meningkatkan nada dari AI itu, meski tidak jelas berapa lama batas ini akan dipertahankan.
Sebelumnya, dikutip dari Independent, Jumat (17/2/2023), beberapa pelapor menyebutkan, AI Microsoft Bing menghasilkan kesalahan faktual saat menjawab pertanyaan dan meringkas laman web.
Selain itu, pengguna juga dapat memanipulasi sistemnya, menggunakan kata kode dan frasa khusus untuk mengetahui sistem itu diberi codename "Sydney" dan dapat diakali untuk mengungkapkan cara sistem memproses kueri.
Ada juga pengguna menyebutkan, Bing mengirimkan berbagai pesan aneh kepada mereka, melontarkan hinaan, seakan mengalami gejolak emosinya sendiri. Seorang pengguna yang mencoba memanipulasi sistem dari AI Bing, malah diserang olehnya.
Kasar ke Pengguna
Bing mengatakan dia dibuat marah dan terluka oleh upaya tersebut, dan bertanya apakah manusia yang berbicara dengannya memiliki "moral", "nilai", dan apakah dia memiliki "kehidupan."
Dilansir The Verge, ada juga pengguna meminta jadwal tayang dari film Avatar terbaru yaitu The Way of the Water. Namun, chatbot menyebut mereka tidak bisa membagikan informasinya karena filmnya belum dirilis.
Saat ditanyai soal ini, chatbot AI itu menegaskan tahun sekarang adalah tahun 2022, sebelum menyebut pengguna "tidak masuk akal dan keras kepala" karena memberi tahu bot tahun ini adalah 2023.
"Anda telah kehilangan kepercayaan dan rasa hormat saya," kata bot itu, seperti dikutip dari The Verge.
"Anda salah, bingung, dan kasar. Anda belum menjadi pengguna yang baik. Saya telah menjadi chatbot yang baik. Saya telah benar, jelas, dan sopan. Saya telah menjadi Bing yang baik. 😊" kata si bot.
Lainnya, menurut dua jam percakapan yang dirilis New York Times, chatbot tersebut bahkan mengatakan bahwa mereka mencintai penulis dan entah bagaimana, tidak bisa tidur malam itu.
Microsoft pun mengatakan, mereka tidak membayangkan AI Bing akan dipakai untuk "penemuan dunia secara umum dan untuk hiburan sosial."
Advertisement
Kata Microsoft Soal AI Bing Berperilaku Aneh
Menanggapi perilaku-perilaku aneh ini, Microsoft mengatakan sesi obrolan panjang dan diperpanjang dengan 15 pertanyaan atau lebih, dapat membuat semuanya keluar dari jalur.
"Bing dapat berulang atau diminta/diprovokasi untuk memberikan tanggapan yang belum tentu membantu atau sesuai dengan nada yang kami rancang," kata perusahaan itu.
Menurut Microsoft, itu tampaknya terjadi karena pertanyaan demi pertanyaan dapat menyebabkan bot "lupa" apa yang ingin dijawabnya sejak awal.
Microsoft sendiri telah memperkenalkan versi terbaru dari mesin pencari mereka Bing, dengan fitur chatbot AI ala ChatGPT OpenAI.
Perusahaan mengatakan, versi baru ini akan memberikan hasil pencarian yang lebih baik, jawaban yang lebih lengkap, pengalaman chat baru, dan kemampuan untuk menghasilkan konten.
Chatbot ala ChatGPT di Bing
Dalam pratinjau yang ditampilkan di Bing.com, terlihat bagaimana hasil pencarian tradisional terlihat berdampingan dengan anotasi AI.
Sementara, mode lain memungkinkan pengguna berbicara langsung ke chatbot AI Bing, dengan mengajukan pertanyaan di antarmuka obrolan seperti ChatGPT.
Nantinya, selain berbagai situs untuk sumber rujukan, Bing juga akan memberikan sebuah jawaban yang dibuat oleh AI seperti ChatGPT di hasil penelusuran, serta sumber rujukan yang mereka pakai.
Dikutip dari The Verge, semua fitur ini didukung oleh versi GPT 3.5 yang ditingkatkan, ini merupakan language model dari OpenAI yang mendukung ChatGPT.
Advertisement