Anda mungkin pernah mengalami momen ini: coding agent Anda baru saja menulis refactor yang indah, menghasilkan diagram arsitektur yang sempurna, lalu Anda bertanya "berapa sih harga pesaing utama kita sekarang?" — dan agent itu entah mengarang jawaban, atau memberi tahu bahwa data pelatihannya terhenti enam bulan lalu.
Ini bukan salah modelnya. Claude, GPT, Gemini — semuanya brilian dalam bernalar. Tapi tidak satu pun yang bisa melihat web secara langsung. Akibatnya, developer akhirnya menyambung-nyambungkan kunci API Google, database vektor, dan panggilan LLM, mencoba membangun sesuatu yang seharusnya cukup satu perintah.
Masalah ini punya nama: kesenjangan pencarian dalam infrastruktur AI agent. Dan solusinya bukan menambah pipeline RAG. Melainkan pendekatan yang sepenuhnya berbeda.
RAG dibangun untuk dokumen internal, bukan internet
Retrieval-Augmented Generation bekerja dengan indah ketika data Anda tinggal di database vektor dan berubah sekali per kuartal. Buku pegangan karyawan. Spesifikasi produk. Data historis. Indeks, kueri, selesai.
Masalah mulai muncul ketika Anda membutuhkan sesuatu yang tidak ada di indeks Anda.
Pesaing meluncurkan tier harga baru. Sebuah regulasi berubah. Library yang Anda andalkan memiliki bug kritis yang sedang ramai dibicarakan di Hacker News. Pipeline RAG Anda tidak tahu semua ini. Tidak mungkin — ia hanya melihat apa yang Anda berikan saat terakhir kali membangun ulang indeks.
Saya telah melihat tim mencoba memperbaikinya dengan jadwal rebuild yang lebih cepat. Lalu dengan hybrid search. Lalu dengan pipeline terpisah untuk data internal dan eksternal. Setiap lapisan membuat sistem lebih mumpuni — dan lebih rapuh. Setiap sumber data baru adalah integrasi baru. Setiap integrasi adalah hal lain yang bisa rusak jam 2 pagi.
Masalah sebenarnya bukan karena RAG buruk. Tapi karena RAG dirancang untuk menjawab "apa kata kebijakan kita tentang X" — bukan "apa yang sedang terjadi di dunia saat ini."
Apa yang sebenarnya dilakukan grounded search
Grounded search mengambil informasi langsung dari web pada saat Anda bertanya. Bukan dari indeks. Bukan dari snapshot. Dari apa pun yang tersedia secara publik saat ini, dengan URL sumber terlampir pada setiap klaim.
Ini lebih mirip cara Anda meneliti sendiri: mencari, memindai beberapa sumber, menyintesis jawaban, dan menyebutkan dari mana setiap bagian berasal. Bedanya, agent Anda melakukannya dalam hitungan detik, bukan menit.
Perbandingan singkat untuk memperjelas perbedaannya:
| Aspek | RAG Tradisional | Grounded Search |
|---|---|---|
| Sumber data | Dokumen yang Anda indeks | Web langsung, saat ini juga |
| Cakupan pengetahuan | Apa pun yang Anda indeks | Apa pun yang bisa diakses publik |
| Kapan menjadi basi | Begitu sumber berubah | Tidak basi — mengambil data baru setiap kali |
| Setup | Pipeline indeks, vector DB, chunking | Satu perintah CLI |
RAG tetap unggul untuk data privat — catatan pelanggan, keuangan internal, apa pun yang tidak boleh menyentuh internet publik. Arsitektur praktis yang akhirnya dipakai kebanyakan tim: RAG untuk pengetahuan internal, grounded search untuk konteks eksternal. Agent memilih berdasarkan pertanyaan yang diajukan.
Bagaimana agent benar-benar menggunakannya
CLI sengaja dibuat sederhana karena agent tidak mengimpor library — mereka menjalankan perintah.
anycap search "Acme Corp enterprise pricing Q2 2026" \
--citations \
--output acme-pricing.json
Agent menerima jawaban terstruktur dengan kutipan. Agent bisa meneruskan jawaban ke pengguna, memasukkannya ke langkah workflow berikutnya, atau menyimpannya untuk nanti. Tanpa repot API key. Tanpa perlu membungkus Python SDK. Hanya sebuah alat yang bisa dipanggil agent seperti memanggil ls atau git diff.
Yang membuat ini powerful bukanlah pencariannya saja. Tapi pencarian menjadi salah satu dari banyak alat yang bisa dirantai agent. Cari harga pesaing. Riset mendalam tentang lanskap pasar. Hasilkan visual perbandingan. Kompilasi semuanya menjadi laporan. Publikasikan.
Satu CLI. Satu autentikasi. Agent berpindah antar kapabilitas tanpa kode integrasi kustom untuk setiap langkah.
Saya telah melihat pola ini bekerja sangat baik untuk pemantauan kompetitif. Agent memeriksa harga pesaing setiap minggu, membandingkannya dengan minggu sebelumnya, menandai perubahan, dan mengirim ringkasan ke Slack. Satu cron job, nol middleware.
Hal-hal yang benar-benar penting saat memilih alat pencarian
Lupakan matriks fitur sejenak. Inilah yang akan saya uji jika saya mengevaluasi alat grounded search:
Apakah kutipannya akurat? Uji 20 kueri yang Anda tahu jawaban benarnya. Untuk setiap kueri, klik kutipannya dan verifikasi bahwa sumbernya benar-benar mendukung klaim alat tersebut. Alat yang mengembalikan jawaban benar dengan kutipan salah lebih berbahaya daripada alat yang mengakui tidak tahu. Saya pernah membuang setengah hari mengejar "fakta" dari alat pencarian yang mengutip sumber yang justru mengatakan sebaliknya.
Seberapa cepat sebenarnya? Bukan latensi pemasaran. Tapi latensi P99 saat 50 agent mengaksesnya secara bersamaan. Pipeline agent yang menunggu 8 detik per langkah pencarian akan membuat semua orang frustrasi.
Apakah menangani kasus ekstrem dengan baik? Tanyakan sesuatu yang tidak umum. Sesuatu yang baru terjadi. Sesuatu di mana sumber-sumber tidak sepakat. Alat yang baik akan menampilkan konfliknya, bukan merata-ratakan ketidaksepakatan menjadi omong kosong.
CLI atau SDK? Ini lebih penting dari kedengarannya. Agent tidak melakukan from x import y. Mereka menjalankan perintah. Alat yang berada di balik library Python adalah alat yang tidak bisa digunakan agent Anda tanpa Anda menulis wrapper dulu.
Mengapa ini lebih penting dari kedengarannya
Kesenjangan pencarian bukanlah ketidaknyamanan kecil. Ini adalah hambatan terbesar yang membuat agent tidak bisa menangani workflow riset sungguhan. Agent yang bisa bernalar tapi tidak bisa mencari seperti developer yang diblokir Stack Overflow — mampu, tapi terputus dari informasi yang benar-benar mereka butuhkan.
Solusinya tidak rumit. Hanya saja bukan hal yang pertama dipilih kebanyakan tim, karena RAG sudah familiar dan kesenjangan pencarian baru terlihat jelas ketika agent Anda dengan percaya diri memberikan informasi salah kepada seseorang yang memercayainya.
Jika agent Anda menabrak tembok itu — bekerja sempurna pada data internal tapi langsung berantakan begitu butuh sesuatu dari luar — mungkin bukan modelnya. Mungkin bukan prompt-nya. Tapi arsitektur pencariannya yang memang dibangun untuk masalah yang berbeda.
Bacaan lebih lanjut:
- Alat Deep Research Terbaik untuk AI Agent di 2026 — Ketika pencarian sekali lewat tidak cukup
- Google AI Search untuk Developer — Apa arti perubahan AI search Google bagi pembangun agent
- Alat AI Terbaik untuk Enterprise Search — Grounded search dibandingkan dengan Glean, Perplexity, dan Copilot
- Agentic Workflows: Panduan Lengkap — Membangun pipeline yang merantai pencarian, generasi, dan aksi