OpenAI Bongkar Akar Masalah Jawaban Halusinasi di Chatbot AI, Sulit Dihilangkan

OpenAI Bongkar Akar Masalah Jawaban Halusinasi di Chatbot AI, Sulit Dihilangkan

Bisnis.com, JAKARTA — OpenAI mengungkap sejumlah penyebab kecerdasan buatan (AI) berbasis bahasa, seperti GPT-5 dan ChatGPT, masih sering “berhalusinasi”.  Fenomena ini tidak dapat dihilangkan seluruhnya.

Dalam blog resminya, Senin (8/9/2025) OpenAI mendefinisikan “halusinasi” sebagai pernyataan yang terdengar masuk akal, namun sejatinya salah dan dikarang oleh model bahasa. Meskipun kualitas model terus membaik, para peneliti menegaskan halusinasi tetap menjadi tantangan mendasar seluruh LLM yang belum bisa dihilangkan sepenuhnya. 

Fenomena ini diilustrasikan lewat eksperimen: ketika sebuah chatbot AI ditanya soal judul disertasi Ph.D atau tanggal lahir Adam Tauman Kalai—salah satu penulis makalah—jawaban yang diberikan berbeda-beda dan semuanya salah. Hal ini jadi contoh konkret bagaimana model bisa begitu percaya diri dalam menjawab, meski keliru. 

Menurut riset OpenAI, sumber masalah utama datang dari proses pre training, yakni saat model dilatih menebak kata selanjutnya dari kumpulan teks masif tanpa ada label benar atau salah.

Model hanya belajar dari contoh bahasa yang fasih, bukan dari data yang menyatakan pernyataan itu fakta atau fiksi menurut laporan Techcrunch.

Untuk pola-pola rutin seperti ejaan atau tanda baca, skala data bisa mengatasi kesalahan. Namun untuk fakta unik dan jarang, seperti ulang tahun seseorang atau data unik lain, AI akan “menebak” karena tidak ada pola yang bisa diikuti.

The AI Insider menyebut tantangan lainnya terletak pada cara penilaian keakuratan model. Sistem evaluasi saat ini cenderung memberi insentif agar model tetap menebak daripada jujur mengaku “tidak tahu”.

Skemanya ibarat ujian pilihan ganda di mana menebak tetap berpeluang benar, sedangkan mengosongkan jawaban dijamin nol poin. Model pun terus terdorong melakukan “tebakan percaya diri”, bukan menahan diri saat tidak yakin.

Solusi yang diusulkan peneliti OpenAI adalah mengubah paradigma evaluasi, sistem penilaian sebaiknya memberi penalti lebih pada jawaban salah yang diucapkan dengan yakin, dan malah memberikan “kredit parsial” untuk ekspresi ketidakyakinan yang tepat. Dengan cara ini, model akan terlatih untuk memilih diam saat memang tidak tahu, sehingga mengurangi kecenderungan halusinasi. 

Para peneliti menutup makalahnya dengan pesan penting bahwa selama evaluasi dan leaderboard AI masih memberi hadiah pada “tebakan beruntung”, model AI akan terus belajar untuk menebak daripada jujur mengakui ketidaktahuan.