Tekno  

OpenAI, Masalah Halusinasi AI Belum Punya Solusi Tuntas

Ilustrasi.
Ilustrasi.

Jakarta OpenAI, pengembang di balik chatbot kecerdasan buatan (AI) ChatGPT, memberikan penjelasan terkait fenomena yang kerap muncul pada model AI, yakni menghasilkan jawaban yang terdengar meyakinkan tetapi sebenarnya keliru. Gejala ini dikenal dengan istilah “halusinasi” dan hingga kini masih menjadi tantangan besar yang belum menemukan solusi tuntas.

Dalam pernyataan resmi pekan lalu, OpenAI menyebut bahwa model bahasa cenderung tetap memberikan jawaban meskipun kemungkinannya sangat kecil, ketimbang menyatakan ketidaktahuan.

Perusahaan menilai akar persoalan ini berasal dari metode pelatihan dan sistem evaluasi yang digunakan. Standar tersebut membuat model belajar bahwa “tidak menjawab” sama dengan gagal total, sehingga lebih memilih menebak meski berisiko salah.

OpenAI menegaskan bahwa kasus di mana model AI “secara percaya diri menyampaikan informasi keliru” masih muncul, bahkan pada versi terbaru mereka, termasuk GPT-5 yang saat ini menjadi andalan.

Sebuah studi juga mengungkap bahwa sistem evaluasi yang memberi nilai lebih tinggi pada tebakan dibanding pengakuan ketidakpastian justru memperkuat pola ini. Alhasil, model AI berperilaku seolah lebih baik untuk tetap mencoba menebak, meski jawabannya tidak akurat.

“Perubahan dalam sistem penilaian bisa mendorong penerapan teknik untuk mengurangi halusinasi,” tulis OpenAI. Namun, perusahaan itu juga mengakui bahwa tingkat akurasi tidak mungkin mencapai 100%, sebab sebagian pertanyaan dalam kehidupan nyata memang tidak memiliki jawaban pasti, sekalipun model AI diperkuat dengan kapasitas besar dan kemampuan penalaran yang lebih maju.(BY)