5 Teknik Praktis Mengurangi Halusinasi LLM Tanpa Mengubah Prompt

Oleh VOXBLICK

Rabu, 01 April 2026 - 07.45 WIB
5 Teknik Praktis Mengurangi Halusinasi LLM Tanpa Mengubah Prompt
Kurangi halusinasi LLM (Foto oleh Benjamin Farren)

VOXBLICK.COM - Kamu mungkin pernah mengalami momen ketika LLM menjawab dengan percaya diri, rapi, dan sangat meyakinkanpadahal isinya ternyata keliru. Fenomena itu sering disebut halusinasi: model “mengarang” informasi yang terdengar masuk akal, meski tidak selalu benar. Kabar baiknya, kamu tidak harus mengandalkan prompt engineering yang rumit untuk menekan halusinasi. Ada beberapa teknik praktis yang bisa kamu terapkan di sisi aplikasi, alur kerja, atau cara mengecek jawabantanpa mengubah prompt inti.

Artikel ini membahas 5 teknik praktis mengurangi halusinasi LLM tanpa mengubah prompt. Fokusnya adalah cara mendeteksi jawaban yang berisiko salah, mengurangi dampaknya, dan membuat output lebih stabildengan contoh implementasi yang realistis.

Ilustrasi mengurangi halusinasi LLM dengan teknik praktis tanpa mengubah prompt
5 Teknik Praktis Mengurangi Halusinasi LLM Tanpa Mengubah Prompt (Foto oleh cottonbro studio)

1) Gunakan “verifikasi berbasis pengetahuan” (retrieval check) setelah LLM menjawab

Teknik pertama adalah menambahkan langkah verifikasi setelah model menghasilkan jawaban. Ide dasarnya: jangan hanya percaya pada jawaban LLM, tetapi cocokkan klaim penting dengan sumber yang lebih tepercaya.

Kamu bisa melakukannya tanpa mengubah prompt dengan cara menambahkan modul “cek kebenaran” di luar model.

Secara sederhana, alur kerjanya:

  • LLM menjawab sesuai prompt yang sudah ada.
  • Ambil klaim-klaim yang “berisiko” (angka, kutipan, definisi spesifik, tanggal, nama dokumen, atau langkah prosedur).
  • Gunakan pencarian (misalnya dokumen internal, knowledge base, atau web via API) untuk mencari bukti.
  • Jika bukti tidak ditemukan atau tidak konsisten, tandai bagian itu sebagai “tidak terverifikasi”.

Contoh implementasi realistis: Misalnya kamu membuat chatbot bantuan kebijakan HR. Prompt-nya sudah fixed: “Jelaskan prosedur cuti.” Setelah jawaban keluar, sistem kamu menjalankan pencarian ke dokumen kebijakan internal (mis.

PDF atau wiki). Jika jawaban menyebut aturan cuti tahunan yang tidak ada di dokumen, sistem menandai “bagian ini belum terverifikasi” dan mengarahkan pengguna membaca dokumen resmi.

Keunggulannya: kamu tidak perlu mengubah prompt. Kamu hanya menambahkan lapisan validasi. Dampaknya: halusinasi yang berupa “fakta baru” biasanya cepat terdeteksi.

2) Terapkan self-consistency lewat sampling berulang, lalu pilih jawaban yang paling stabil

Halusinasi sering muncul ketika model “mengunci” satu interpretasi yang salah. Kamu bisa menurunkan risiko dengan membuat model menghasilkan beberapa variasi dari pertanyaan yang sama, lalu mengukur konsistensi.

Teknik ini disebut self-consistency (atau sebagian varian dari majority voting). Tanpa mengubah prompt, kamu cukup mengubah parameter sampling (misalnya temperature dan jumlah sampel), lalu membandingkan hasil.

Langkah yang bisa kamu lakukan:

  • Untuk satu pertanyaan, panggil LLM sebanyak n kali (mis. 3–7).
  • Normalisasi output (mis. ekstrak poin-poin jawaban, atau ringkas menjadi klaim-klaim).
  • Hitung kemunculan klaim yang sama di mayoritas jawaban.
  • Susun output akhir dari klaim yang paling konsisten sisanya diberi label “bervariasi/tidak pasti”.

Contoh implementasi: Kamu membuat asisten untuk menjawab pertanyaan “Apa saja langkah troubleshoot printer yang macet?”. LLM mungkin menyebut langkah yang berbeda-beda antar percobaan.

Dengan sampling berulang, kamu akan menemukan bahwa beberapa langkah (mis. cek kertas tersangkut, bersihkan roller, restart spooler) muncul konsisten, sedangkan langkah lain (mis. “reset firmware” yang tidak relevan) tidak stabil. Output akhir kamu berisi langkah yang paling sering muncul.

Catatan: teknik ini tidak menjamin 100% benar, tapi biasanya mengurangi halusinasi dan membuat jawaban lebih “tahan banting” terhadap variasi.

3) Pakai “guardrail” otomatis untuk mendeteksi pola jawaban yang mencurigakan

Alih-alih mengandalkan prompt agar model “tidak halu”, kamu bisa menambahkan detektor setelah output dibuat. Guardrail dapat berupa aturan sederhana, heuristik, hingga model klasifikasi.

Beberapa sinyal yang sering menandakan halusinasi:

  • Jawaban memuat angka detail tanpa sumber (mis. “butuh 17 menit” untuk proses yang tidak umum).
  • Nama lembaga/produk disebut dengan format yang “terlihat benar” tapi tidak pernah ada.
  • Jawaban memberi langkah prosedural yang terlalu spesifik namun tidak menyebut konteks (model perangkat, versi, atau syarat).
  • Output mengandung kontradiksi internal (mis. menyebut “tidak perlu update” lalu menyuruh update wajib).

Contoh implementasi: Kamu bisa membuat fungsi yang memeriksa:

  • Apakah ada kutipan “seolah-olah” dari dokumen (mis. “menurut Peraturan X pasal Y”) tanpa tautan atau referensi.
  • Apakah ada tanggal/angka yang tidak konsisten dengan jawaban sebelumnya.
  • Apakah respons panjang tetapi minim klaim verifikatif (mis. banyak narasi, sedikit faktaatau sebaliknya).

Kalau guardrail mendeteksi risiko tinggi, kamu bisa melakukan tindakan otomatis: meminta pengguna memberi konteks tambahan, menolak klaim tertentu, atau menjalankan langkah verifikasi (teknik #1).

Dengan begitu, halusinasi tidak langsung “mendarat” sebagai jawaban final.

4) Ubah bentuk output: paksa jawaban menjadi “klaim + tingkat keyakinan + kebutuhan sumber”

Teknik keempat fokus pada cara menyajikan hasil, bukan mengubah prompt awal. Kamu bisa memproses output LLM menjadi format terstruktur sebelum ditampilkan ke pengguna.

Misalnya, setelah model menghasilkan jawaban, kamu lakukan transformasi internal agar tiap klaim dipisahkan. Lalu berikan:

  • Klaim (fakta/angka/langkah yang spesifik)
  • Tingkat keyakinan (mis. tinggi/sedang/rendah) berdasarkan sinyal seperti konsistensi dari teknik #2 atau keberadaan bukti dari teknik #1
  • Kebutuhan sumber (apakah perlu diverifikasi atau bisa dipakai sebagai panduan umum)

Contoh implementasi: Untuk pertanyaan “Bagaimana cara menghitung ROI kampanye iklan?”, LLM bisa memberi rumus dan contoh. Sistem kamu kemudian memisahkan: rumus ROI (klaim), definisi variabel (klaim), dan asumsi (mis.

“gunakan revenue kotor” atau “net profit”). Jika variabel tertentu tidak ada di konteks pengguna, sistem menandai keyakinan lebih rendah dan meminta pengguna mengonfirmasi definisi metrik (gross vs net).

Kenapa ini mengurangi halusinasi? Karena pengguna tidak dipaksa menerima seluruh jawaban sebagai “sama-sama pasti”. Klaim yang berisiko bisa ditahan atau diberi label “butuh verifikasi”, sehingga dampak halusinasi berkurang secara praktis.

5) Gunakan “cek batas pengetahuan” dengan fallback ke pertanyaan klarifikasi (tanpa mengubah prompt)

Halusinasi sering terjadi ketika LLM kekurangan konteks. Teknik terakhir adalah menyediakan fallback otomatis: ketika jawaban berisiko salah, sistem mengalihkan ke pertanyaan klarifikasi atau meminta input yang diperlukan.

Ini tidak berarti kamu harus mengubah prompt. Kamu cukup menambahkan logika aplikasi:

  • Deteksi apakah pertanyaan pengguna terlalu umum atau ambigu.
  • Deteksi apakah jawaban LLM menyebut asumsi penting yang tidak diketahui (mis. versi produk, wilayah, standar tertentu, atau definisi metrik).
  • Jika terdeteksi, jangan langsung menampilkan jawaban final. Minta pengguna melengkapi konteks.

Contoh implementasi: Kamu membuat asisten untuk “aturan pajak UMKM”. Jika pengguna hanya menulis “UMKM kena pajak apa?”, LLM mungkin mengarang detail.

Sistem kamu mendeteksi bahwa informasi yang dibutuhkan (negara, jenis usaha, omzet, status PKP) belum tersedia. Maka alih-alih menampilkan jawaban detail yang berisiko, sistem mengajukan pertanyaan klarifikasi: “Untuk konteks Indonesia, omzet berapa dan status PKP-nya bagaimana?” Setelah itu barulah LLM menghasilkan jawaban yang lebih tepat.

Dengan fallback yang cerdas, kamu bukan hanya mengurangi halusinasi, tapi juga meningkatkan kualitas percakapan secara keseluruhan.

Merangkai 5 teknik ini jadi workflow yang praktis

Agar kamu bisa langsung menerapkan, berikut contoh workflow sederhana yang tidak mengubah prompt inti:

  1. Generate jawaban dengan prompt yang sudah ada.
  2. Jalankan self-consistency (sampling berulang) untuk menilai klaim mana yang stabil.
  3. Ekstrak klaim dari jawaban dan kirim ke retrieval check (teknik #1) untuk verifikasi.
  4. Jalankan guardrail untuk mendeteksi pola jawaban mencurigakan.
  5. Render output terstruktur (klaim + keyakinan + kebutuhan sumber). Jika risiko tinggi, lakukan fallback klarifikasi (teknik #5).

Hasilnya: kamu mendapatkan sistem yang lebih “berdisiplin” terhadap halusinasi LLM tanpa harus menghabiskan waktu untuk prompt engineering yang berulang-ulang.

Jika kamu ingin memulai dari yang paling murah dan cepat, biasanya kombinasi self-consistency + guardrail adalah titik awal yang bagus. Setelah itu, tambahkan retrieval check untuk akurasi berbasis bukti.

Dengan menerapkan 5 teknik praktis mengurangi halusinasi LLM tanpa mengubah prompt seperti di atas, kamu bisa membuat aplikasi AI yang lebih andal, jawaban lebih terverifikasi, dan pengalaman pengguna terasa lebih “percaya”bukan

sekadar terlihat meyakinkan.

Apa Reaksi Anda?

Suka Suka 0
Tidak Suka Tidak Suka 0
Cinta Cinta 0
Lucu Lucu 0
Marah Marah 0
Sedih Sedih 0
Wow Wow 0