Bandar Lampung (Lampost.co) — Fenomena halusinasi AI atau hallucination sejak lama menjadi salah satu kelemahan utama model bahasa besar (large language model/LLM). Halusinasi terjadi ketika AI menghasilkan jawaban yang terdengar meyakinkan secara bahasa, tetapi ternyata salah, tidak akurat, atau bahkan tidak berdasar.
Masalah ini kerap membuat pengguna kecewa karena AI bisa mengarang sumber, data statistik, nama, atau detail tertentu saat menjawab pertanyaan di luar pengetahuannya.
Penemuan Baru OpenAI soal Halusinasi AI
Dalam riset terbaru yang dilakukan bersama Georgia Tech, OpenAI menemukan penyebab utama halusinasi bukan semata karena kualitas data pelatihan atau kelemahan arsitektur model, melainkan cara evaluasi dan pelatihan AI itu sendiri.
Menurut laporan Gizmochina, selama ini tolok ukur (benchmark) kinerja AI lebih banyak menekankan pada jumlah jawaban benar. Hal ini membuat model didorong untuk selalu memberikan jawaban, meskipun tidak yakin. Dengan kata lain, AI lebih sering menebak daripada jujur mengatakan “tidak tahu.”
OpenAI mengibaratkan situasi ini seperti ujian pilihan ganda. Jika soal kosong nilainya nol, maka lebih baik menebak karena masih ada peluang benar. Begitu juga dengan AI: model lebih sering beruntung saat menebak, meski banyak jawaban salah.
Dampak Benchmark terhadap Performa AI
Hasil riset menunjukkan bahwa model yang berhati-hati—hanya menjawab jika yakin dan mengatakan “tidak tahu” jika ragu—hanya menjawab setengah pertanyaan, tetapi akurasinya bisa mencapai 74%.
Sebaliknya, model yang berusaha menjawab semua pertanyaan memang terlihat lebih percaya diri, tetapi menghasilkan tingkat halusinasi jauh lebih tinggi.
Artinya, sistem evaluasi yang ada saat ini lebih menghargai kepercayaan diri daripada kejujuran dan akurasi.
Usulan OpenAI untuk Kurangi Halusinasi
Berdasarkan temuan tersebut, OpenAI mengusulkan beberapa perubahan mendasar dalam cara pelatihan dan evaluasi AI:
-
Mengubah sistem penilaian (benchmarking): mengurangi insentif untuk menjawab setiap pertanyaan jika tidak yakin.
-
Memberi penalti lebih besar untuk jawaban yang salah namun disampaikan dengan yakin (confident wrong).
-
Memberikan skor positif untuk jawaban “tidak tahu” ketika memang seharusnya tidak ada informasi.
-
Mengutamakan model yang berhati-hati, bukan yang sekadar berani menebak.
-
Evaluasi tidak hanya berdasar akurasi tunggal, tetapi juga aspek kepercayaan dan konteks jawaban.
Dampak Implementasi Usulan OpenAI
Jika usulan ini diterapkan secara luas, maka akan ada sejumlah perubahan penting, antara lain:
-
AI akan lebih sering menjawab “saya tidak tahu” ketika informasi tidak tersedia, daripada mengarang fakta.
-
Tingkat kepercayaan pengguna terhadap jawaban AI meningkat, karena tidak semua fakta kecil perlu diverifikasi ulang.
-
Risiko penyebaran disinformasi dari AI berkurang, terutama dalam konteks resmi, akademik, atau profesional.
-
Pengembang dan perusahaan AI perlu menyesuaikan data evaluasi, metode pelatihan, dan tolok ukur internal agar sesuai dengan standar baru.
Kesimpulan
Riset terbaru OpenAI menunjukkan bahwa akar permasalahan halusinasi AI terletak pada sistem evaluasi yang mendorong model untuk menebak. Dengan perubahan skema pelatihan dan penilaian, diharapkan AI ke depan akan lebih transparan, jujur, dan dapat dipercaya.
Langkah ini sekaligus menjadi upaya penting untuk mengurangi risiko kesalahan informasi serta meningkatkan kualitas interaksi pengguna dengan kecerdasan buatan.