• Pedoman Media Siber
  • Redaksi
  • Iklan
  • Tentang Kami
  • E-Paper
Minggu, 14/09/2025 16:00
  • BERANDA
  • BOLA
  • TEKNOLOGI
  • EKONOMI BISNIS
    • BANK INDONESIA LAMPUNG
    • BANK SYARIAH INDONESIA
    • BANK LAMPUNG
    • OTOMOTIF
  • PENDIDIKAN
    • UNIVERSITAS TEKNOKRAT INDONESIA
    • UNILA
    • UIN LAMPUNG
    • U B L
    • S T I A B
  • KOLOM
    • OPINI
    • REFLEKSI
    • NUANSA
    • TAJUK
    • FORUM GURU
  • LAMPUNG
    • BANDARLAMPUNG
    • PEMKOT BANDARLAMPUNG
    • PEMPROV LAMPUNG
    • TULANG BAWANG BARAT
    • LAMPUNG BARAT
  • IKLAN PENGUMUMAN
  • INDEKS
No Result
View All Result
  • BERANDA
  • BOLA
  • TEKNOLOGI
  • EKONOMI BISNIS
    • BANK INDONESIA LAMPUNG
    • BANK SYARIAH INDONESIA
    • BANK LAMPUNG
    • OTOMOTIF
  • PENDIDIKAN
    • UNIVERSITAS TEKNOKRAT INDONESIA
    • UNILA
    • UIN LAMPUNG
    • U B L
    • S T I A B
  • KOLOM
    • OPINI
    • REFLEKSI
    • NUANSA
    • TAJUK
    • FORUM GURU
  • LAMPUNG
    • BANDARLAMPUNG
    • PEMKOT BANDARLAMPUNG
    • PEMPROV LAMPUNG
    • TULANG BAWANG BARAT
    • LAMPUNG BARAT
  • IKLAN PENGUMUMAN
  • INDEKS
No Result
View All Result
Home Teknologi

OpenAI Ungkap Penyebab Halusinasi AI dan Solusi Baru untuk Menguranginya

Riset terbaru OpenAI menunjukkan bahwa akar permasalahan halusinasi AI terletak pada sistem evaluasi yang mendorong model untuk menebak.

Denny ZYbyDenny ZY
14/09/25 - 14:03
in Teknologi
A A
Halusinasi AI

Ilustrasi - Medcom.id

Bandar Lampung (Lampost.co) — Fenomena halusinasi AI atau hallucination sejak lama menjadi salah satu kelemahan utama model bahasa besar (large language model/LLM). Halusinasi terjadi ketika AI menghasilkan jawaban yang terdengar meyakinkan secara bahasa, tetapi ternyata salah, tidak akurat, atau bahkan tidak berdasar.

Masalah ini kerap membuat pengguna kecewa karena AI bisa mengarang sumber, data statistik, nama, atau detail tertentu saat menjawab pertanyaan di luar pengetahuannya.

Penemuan Baru OpenAI soal Halusinasi AI

Dalam riset terbaru yang dilakukan bersama Georgia Tech, OpenAI menemukan penyebab utama halusinasi bukan semata karena kualitas data pelatihan atau kelemahan arsitektur model, melainkan cara evaluasi dan pelatihan AI itu sendiri.

Menurut laporan Gizmochina, selama ini tolok ukur (benchmark) kinerja AI lebih banyak menekankan pada jumlah jawaban benar. Hal ini membuat model didorong untuk selalu memberikan jawaban, meskipun tidak yakin. Dengan kata lain, AI lebih sering menebak daripada jujur mengatakan “tidak tahu.”

OpenAI mengibaratkan situasi ini seperti ujian pilihan ganda. Jika soal kosong nilainya nol, maka lebih baik menebak karena masih ada peluang benar. Begitu juga dengan AI: model lebih sering beruntung saat menebak, meski banyak jawaban salah.

Dampak Benchmark terhadap Performa AI

Hasil riset menunjukkan bahwa model yang berhati-hati—hanya menjawab jika yakin dan mengatakan “tidak tahu” jika ragu—hanya menjawab setengah pertanyaan, tetapi akurasinya bisa mencapai 74%.
Sebaliknya, model yang berusaha menjawab semua pertanyaan memang terlihat lebih percaya diri, tetapi menghasilkan tingkat halusinasi jauh lebih tinggi.

Artinya, sistem evaluasi yang ada saat ini lebih menghargai kepercayaan diri daripada kejujuran dan akurasi.

Usulan OpenAI untuk Kurangi Halusinasi

Berdasarkan temuan tersebut, OpenAI mengusulkan beberapa perubahan mendasar dalam cara pelatihan dan evaluasi AI:

  1. Mengubah sistem penilaian (benchmarking): mengurangi insentif untuk menjawab setiap pertanyaan jika tidak yakin.

  2. Memberi penalti lebih besar untuk jawaban yang salah namun disampaikan dengan yakin (confident wrong).

  3. Memberikan skor positif untuk jawaban “tidak tahu” ketika memang seharusnya tidak ada informasi.

  4. Mengutamakan model yang berhati-hati, bukan yang sekadar berani menebak.

  5. Evaluasi tidak hanya berdasar akurasi tunggal, tetapi juga aspek kepercayaan dan konteks jawaban.

Dampak Implementasi Usulan OpenAI

Jika usulan ini diterapkan secara luas, maka akan ada sejumlah perubahan penting, antara lain:

  • AI akan lebih sering menjawab “saya tidak tahu” ketika informasi tidak tersedia, daripada mengarang fakta.

  • Tingkat kepercayaan pengguna terhadap jawaban AI meningkat, karena tidak semua fakta kecil perlu diverifikasi ulang.

  • Risiko penyebaran disinformasi dari AI berkurang, terutama dalam konteks resmi, akademik, atau profesional.

  • Pengembang dan perusahaan AI perlu menyesuaikan data evaluasi, metode pelatihan, dan tolok ukur internal agar sesuai dengan standar baru.

Kesimpulan

Riset terbaru OpenAI menunjukkan bahwa akar permasalahan halusinasi AI terletak pada sistem evaluasi yang mendorong model untuk menebak. Dengan perubahan skema pelatihan dan penilaian, diharapkan AI ke depan akan lebih transparan, jujur, dan dapat dipercaya.

Langkah ini sekaligus menjadi upaya penting untuk mengurangi risiko kesalahan informasi serta meningkatkan kualitas interaksi pengguna dengan kecerdasan buatan.

Tags: artificial intelligenceBenchmark AIEvaluasi ModelHalusinasi AILLMOpenAI
ShareSendShareTweet

Berita Lainnya

Foto Polaroid Gemini AI

Tren Foto Polaroid Bareng Idola dengan Gemini AI, Begini Caranya

byDenny ZY
14/09/2025

Bandar Lampung (Lampost.co) — Fenomena unik sedang viral di media sosial: foto polaroid bareng idola. Mulai dari penggemar K-pop hingga...

Elden Ring Nightreign

Elden Ring Nightreign Dapatkan Update Gratis, Hadirkan Mode Deep of Night

byDenny ZY
14/09/2025

Bandar Lampung (Lampost.co) — Bandai Namco Entertainment resmi mengumumkan pembaruan gratis untuk Elden Ring Nightreign. Update ini memperkenalkan mode baru...

UDExreal UDCon

UDExreal Umumkan UDCon, Pengontrol VR Ringkas untuk Sarung Tangan UDCap

byDenny ZY
14/09/2025

Bandar Lampung (Lampost.co) — Perusahaan teknologi UDExreal, yang sebelumnya dikenal lewat inovasi sarung tangan VR UDCap, kini bersiap menghadirkan perangkat...

Load More
Facebook Instagram Youtube TikTok Twitter

Affiliated with:

Informasi

Alamat 
Jl. Soekarno – Hatta No.108, Hajimena, Lampung Selatan

Email

redaksi@lampost.co

Telpon
(0721) 783693 (hunting), 773888 (redaksi)

Sitemap

Beranda
Tentang Kami
Redaksi
Compro
Iklan
Microsite
Rss
Pedoman Media Siber

Copyright © 2024. Lampost.co - Media Group, All Right Reserved.

No Result
View All Result
  • BERANDA
  • BOLA
  • TEKNOLOGI
  • EKONOMI BISNIS
    • BANK INDONESIA LAMPUNG
    • BANK SYARIAH INDONESIA
    • BANK LAMPUNG
    • OTOMOTIF
  • PENDIDIKAN
    • UNIVERSITAS TEKNOKRAT INDONESIA
    • UNILA
    • UIN LAMPUNG
    • U B L
    • S T I A B
  • KOLOM
    • OPINI
    • REFLEKSI
    • NUANSA
    • TAJUK
    • FORUM GURU
  • LAMPUNG
    • BANDARLAMPUNG
    • PEMKOT BANDARLAMPUNG
    • PEMPROV LAMPUNG
    • TULANG BAWANG BARAT
    • LAMPUNG BARAT
  • IKLAN PENGUMUMAN
  • INDEKS

Copyright © 2024. Lampost.co - Media Group, All Right Reserved.