Cara Memberi AI "Buku Pintar" (RAG)
Penyakit kelainan bawaan paling menakutkan dari semua jenis AI tanpa terkecuali, adalah kemampuannya untuk berbohong dengan sangat penuh percaya diri. Gejala ini secara formal dinamakan Hallucination (Halusinasi). Kalau kamu bertanya *"Berapa gaji tunjangan karyawan di perusahaanku?"* kepada AI yang murni baru diinstall, ia akan mencoba menebak dan mengarang bebas besaran gajinya!
Banyak perusahaan yang mencoba mengobatinya dengan melakukan *Fine-Tuning* (Melatih ulang jaringan saraf dari nol). Namun biaya perangkat kerasnya bisa menembus ratusan juta, dan setiap kali ada karyawan baru, perusahan harus melatihnya ulang! Di sinilah lahir inovasi paling revolusioner di tahun 2023: RAG (Retrieval-Augmented Generation).
Apa itu RAG? (Sistem Open-Book Exam)
Jika *Fine-Tuning* ibarat murid yang menghafal seluruh buku teks dan ikut ujian matematika dalam ruang tertutup (Ujian *Closed-book*), maka arsitektur RAG ibarat mempersilahkan murid tersebut ikut ujian sembari membawa buku contekan resmi dari guru (*Open-Book Exam*).
Prosedur RAG berjalan dalam urutan logis berikut:
- Ketika *User* bertanya: "Berapa hari cuti untuk karyawan yang istrinya melahirkan?"
- Sistem (Bukan LLM) akan secara gesit membuka *Laci Brankas* digital yang berisi 500 file PDF milik kantormu.
- Sistem menemukan satu paragraf di Halaman 45 pada file `SOP_HRD_2024.pdf` yang berisi informasi terkait.
- Sistem menyalin paragraf itu, dan mengirimkannya ke LLM (Llama 3 misalnya) bersamaan dengan pertanyaan awal dari User.
- Prompt tersembunyinya akan berbunyi seperti: "Bertindaklah sebagai pihak HRD. Jawab pertanyaan user berikut ['Berapa cuti istri melahirkan?'], DENGAN MENGGUNAKAN referensi wajib di bawah ini: [Paragraf referensi halaman 45]."
- Model AI akan merangkum referensi itu dengan gaya bahasa yang sopan. Voila! Ia menjawab fakta mutlak tanpa mengarang satu kata pun.
"RAG memisahkan antara bagian 'mulut/kemampuan bicara' (LLM) dengan bagian 'otak belakang/memori' (Database). Kamu bisa mengganti otaknya setiap detik tanpa perlu melatih mulutnya bicara dari nol." - Lead Machine Learning Engineer
Mencegah Model Menciptakan Kebenaran Fiktif
Untuk memastikan keamanannya bagi klien komersial (*misalnya bot Customer Service toko online*), kamu bisa menambahkan sedikit sihir ketat dalam instruksi RAG-mu yang disebut "Prompt Penjaga":
// Contoh System Prompt RAG Anti-Halusinasi
"Kamu adalah bot penjawab. Gunakan HANYA dokumen konteks yang disediakan.
Jika dokumen tidak membahasnya, KAU WAJIB mengatakan:
'Maaf, saya tidak menemukan informasi tersebut di dokumen internal kami.'
Dilarang menggunakan pengetahuan bawaanmu."
Seketat apapun *prompt* tersebut, jika kamu pernah mempraktekkannya dengan aplikasi *AnythingLLM* seperti di Bab sebelumnya, kamu hanya tinggal menaruh file PDF di *Workspace* dan software akan membangun *pipeline RAG* ini dari nol secara otomatis di belakang layar.
Tapi tunggu dulu. "Bagaimana caranya mencari satu paragraf relevan ke dalam gudang ribuan dokumen PDF dalam ukuran hitungan milidetik?" Selamat datang di dimensi penyimpanan masa depan: **Vector Database**, yang akan kita bedah di halaman selanjutnya!
Ringkasan Bab
- Model AI dasar rentan berbohong (Halusinasi). Arsitektur RAG mengatasi hal tersebut bukan dengan melatih AI, tapi menyisipkan teks contekan saat *user* bertanya.
- RAG mengutamakan fungsi **Retrieval** (mengambil potongan info relevan dari dokumen aslimu) baru melakukan tahap **Augmented Generation** (Menyuruh AI meraciknya menjadi jawaban rapi).
- Ini jauh lebih hemat miliaran Rupiah dan sangat dinamis dibandingkan terus-menerus melakukan proses GPU *Fine-tuning*.
Kuis Sub-bab
Singkatan 3 huruf
› Teknik menambahkan konteks informasi dari database lokal ke LLM disebut?