Sukses

Dampak Buruk Bias Algoritma dan Konten Terfabrikasi dari Model AI Generatif seperti ChatGPT

Model-model AI generatif ini tidak hanya mengandung bias dan stereotip negatif, tetapi juga menghasilkan informasi yang mungkin tampak akurat tetapi sebenarnya tidak masuk akal. Konten semacam ini memiliki konsekuensi yang sangat berbahaya bagi kelompok yang termarginalisasi

Liputan6.com, Jakarta - Model kecerdasan buatan (Artificial Intelligence, AI) generatif seperti ChatGPT dari OpenAI, Bard dari Google, dan Midjourney, telah mendapatkan popularitas di berbagai bidang dalam waktu singkat.

Namun, penelitian baru-baru ini mengungkap realitas yang memprihatinkan. Model AI generatif ini tidak hanya mengandung bias dan stereotip negatif, tetapi juga menghasilkan informasi yang mungkin tampak akurat tetapi sebenarnya tidak masuk akal. Konten semacam ini memiliki konsekuensi yang sangat berbahaya bagi kelompok yang termarginalisasi.

Terlebih lagi, produksi informasi yang menyesatkan secara luas dari Model AI generatif memiliki kekuatan yang signifikan untuk membentuk kepercayaan manusia karena model-model berpengaruh ini semakin lazim di internet. Internet berfungsi sebagai sumber informasi bagi orang-orang dan sebagai data latih utama untuk model AI.

Dengan demikian, tercipta sebuah siklus di mana bias dan omong kosong terus diterima dan disebarkan.

Temuan yang mengkhawatirkan ini disajikan dalam artikel yang terbit di jurnal Science. Ko-penulis artikel ini, Abeba Birhane, seorang profesor di School of Computer Science and Statistics, Trinity College Dublin, menyoroti perlunya para psikolog dan pakar machine learning untuk segera berkolaborasi.

Tujuan mereka adalah menilai besarnya masalah secara komprehensif dan mengembangkan solusi yang efektif.

Profesor Birhane menekankan kekritisan situasi, menunjukkan bahwa model generatif tidak memiliki kemampuan untuk menyampaikan ketidakpastian, yang sering dilakukan manusia melalui frasa seperti "Saya pikir", jeda, koreksi, dan ketidaklancaran ucapan.

 

2 dari 4 halaman

Distorsi Melampaui Input Manusia

Akibatnya, model-model ini menghasilkan respons yang tampak percaya diri dan lancar tetapi tidak memiliki indikator ketidakpastian.

Distorsi ini melampaui input manusia, sehingga berpotensi membuat orang menerima respons ini sebagai informasi akurat. Selain itu, perusahaan sering memberikan model generatif kualitas seperti manusia untuk membuatnya lebih dapat diterima dan dipasarkan, yang semakin memperbesar masalah.

Untuk mengilustrasikan dampak buruknya, artikel tersebut membahas contoh di mana model memberikan skor risiko yang lebih tinggi kepada terdakwa kulit hitam. Akibatnya, hakim pengadilan, yang dipengaruhi oleh pola-pola ini, dapat menyesuaikan praktik hukuman mereka agar selaras dengan prediksi algoritme.

Bahkan, mekanisme yang mendasari statitiscal learning ini dapat memperkuat keyakinan di antara para hakim bahwa orang kulit hitam lebih mungkin untuk melakukan pelanggaran lagi.

 

3 dari 4 halaman

Tantangan

Yang menjadi perhatian khusus adalah tantangan untuk menghilangkan bias dan informasi yang dibuat-buat begitu mereka menguasai keyakinan individu. Anak-anak sangat rentan terhadap distorsi kepercayaan karena mereka cenderung memanusiakan teknologi dan mudah dipengaruhi.

Mengatasi tantangan yang kompleks ini membutuhkan analisis yang cepat dan menyeluruh untuk memahami dampak model generatif pada keyakinan dan bias manusia.

Profesor Birhane menekankan bahwa studi dan intervensi harus memprioritaskan populasi yang terpinggirkan, yang secara tidak proporsional terpapar pada rekayasa dan stereotip negatif yang diabadikan oleh model-model ini.

Selain itu, sumber daya yang substansial sangat dibutuhkan untuk mendidik publik, pembuat kebijakan, dan ilmuwan lintas disiplin, memberi mereka pemahaman yang realistis tentang cara kerja model AI generatif dan mengoreksi kesalahan informasi dan klaim berlebihan seputar teknologi baru ini.

4 dari 4 halaman

Infografis Destinasi Wisata Urban