Cara Memberi AI Agent Kemampuan Pencarian Web — Satu Perintah CLI

AI agent Anda bisa bernalar dengan cemerlang tapi tidak bisa mencari web secara langsung. Pelajari cara menambahkan pencarian web berandalkan sumber dengan satu perintah CLI — tanpa pipeline RAG.

by AnyCap

Agen coding Anda baru saja menulis 300 baris kode integrasi. Anda memintanya untuk mencari dokumen API terbaru dari layanan yang sedang diintegrasikan. Agen itu menebak, atau memberi tahu Anda bahwa data pelatihannya tidak mencakup dokumentasi pasca-cutoff.

Masalahnya bukan pada modelnya. Masalahnya adalah agen Anda tidak punya cara untuk mengakses web secara langsung.

Berikut cara memperbaikinya — dengan satu perintah, tanpa membangun pipeline RAG, tanpa mengelola kunci API dari tiga layanan berbeda, dan tanpa menulis wrapper Python.


Apa yang kurang dari agen Anda

Sebagian besar konfigurasi agen hanya memberi model akses ke:

  • Filesystem (baca/tulis file)
  • Shell (jalankan perintah)
  • Mungkin indeks codebase (cari kode)

Tidak ada yang memberi agen Anda akses ke apa pun di luar mesin Anda. Halaman harga. Changelog dokumentasi API. Perubahan besar dalam dependensi. Pengumuman kompetitor. Advisory keamanan. Agen Anda buta tentang apa pun yang terjadi setelah cutoff pelatihannya.

Solusinya bukan pipeline RAG. RAG untuk dokumen internal — hal-hal yang Anda kendalikan, indeks, dan perbarui secara manual. Yang dibutuhkan agen Anda adalah pencarian web berandalkan sumber: pengambilan langsung dari web publik, dengan kutipan yang melekat pada setiap klaim, yang dapat dipanggil dari CLI yang sudah dikenal agen.


Solusi satu perintah

npm install -g @anycap/cli && anycap login

Hanya itu. Dua perintah menginstal AnyCap CLI dan melakukan autentikasi sekali. Setelah ini, agen Anda dapat memanggil pencarian web berandalkan sumber sama seperti memanggil ls atau git diff:

anycap search "latest release notes for React 20" --citations

Agen menerima jawaban terstruktur dengan URL sumber. Tidak perlu repot dengan kunci API. Tidak perlu pipeline pengambilan terpisah. Tidak perlu SDK Python untuk di-wrap.


Seperti apa praktiknya

Mari kita telusuri skenario nyata. Agen Anda sedang membangun integrasi dan menemukan perubahan besar dalam dependensi yang dirilis tiga minggu lalu — jauh setelah cutoff pelatihannya.

Tanpa pencarian web:

Agen: Tanda tangan fungsi terlihat benar berdasarkan dokumen v3.2.
      *agen terus membangun dengan asumsi yang salah*
Pengguna (30 menit kemudian): Kenapa build gagal?
Agen: Saya tidak punya informasi tentang perubahan setelah data pelatihan saya.
      Biarkan saya periksa... *agen tidak bisa memeriksa*

Dengan pencarian web:

anycap search "react-router v7 breaking changes migration guide" \
  --citations --output router-updates.json

# Agen sekarang membaca router-updates.json
# Menemukan: v7 mengganti nama createBrowserRouter menjadi createRouter
# Agen langsung menyesuaikan kode untuk menggunakan API baru

Perbedaannya bukan pada kualitas penalaran model. Tapi pada apakah model memiliki akses ke informasi terkini atau terpaksa menebak.


Tiga pola yang akan digunakan agen Anda

Setelah agen Anda memiliki pencarian web, tiga pola alur kerja muncul:

Pola 1: Pencarian dokumentasi

# Sebelum menulis kode integrasi, agen memeriksa dokumen terkini
anycap search "stripe api create payment intent 2026" --citations

# Agen memverifikasi parameter sudah terkini sebelum menulis kode
# Mendeteksi deprecation sebelum menjadi bug

Pola 2: Pemeriksaan kesehatan dependensi

# Sebelum mengupgrade dependensi, agen memeriksa masalah yang diketahui
anycap search "next.js 16 known issues production" --citations
anycap search "site:github.com next.js 16 memory leak" --citations

# Agen mengompilasi temuan sebelum menjalankan npm install
# Memberi tahu Anda jika ada masalah kritis yang belum terselesaikan

Pola 3: Konteks kompetitif

# Saat membangun fitur, agen memeriksa cara kompetitor menanganinya
anycap search "competitor-name pricing page changes 2026" --citations

# Agen menggabungkan intelijen kompetitif nyata ke dalam rekomendasi
# Bukan tebakan. Fakta yang dikutip.

Pencarian berandalkan sumber vs. Google API — mengapa perbedaan ini penting

Anda bisa menyiapkan Google Custom Search API untuk agen Anda. Begini prosesnya:

  1. Buat proyek Google Cloud
  2. Aktifkan Custom Search API
  3. Buat kredensial API
  4. Siapkan Custom Search Engine (batas 10 situs kecuali berbayar)
  5. Tulis wrapper Python yang memanggil API
  6. Parse respons (snippet, bukan jawaban yang disintesis)
  7. Kirim snippet ke LLM untuk sintesis
  8. Kelola rate limit dan kuota

Itu delapan langkah. Delapan hal yang bisa rusak. Dan di akhirnya, agen Anda mendapat URL dan snippet — bukan jawaban dengan kutipan.

Pencarian berandalkan sumber menyederhanakan langkah 1–7 menjadi:

anycap search "your question here" --citations

Satu perintah. Jawaban terstruktur dengan kutipan. Antarmuka yang sama apakah agen Anda ada di Claude Code, Cursor, atau cron job.


Menyiapkan agen Anda untuk pencarian web

Instalasi universal (agen apa pun, platform apa pun)

# Instal AnyCap CLI
npm install -g @anycap/cli

# Login sekali — berlaku untuk semua kapabilitas
anycap login

# Agen Anda sekarang dapat menggunakan:
# anycap search "query" --citations
# anycap research --query "complex question" --depth standard

Untuk Claude Code, Cursor, atau Codex secara khusus

Jika agen Anda berada di lingkungan coding agent, instal AnyCap sebagai skill untuk integrasi yang lebih dalam:

# Claude Code
npx -y skills add anycap-ai/anycap -a claude-code -y

# Cursor
npx -y skills add anycap-ai/anycap -a cursor -y

# Codex
npx -y skills add anycap-ai/anycap -a codex -y

Setelah diinstal, agen Anda memiliki akses ke semua kapabilitas AnyCap sebagai alat native — pencarian web, riset mendalam, pembuatan gambar, pembuatan video, dan penerbitan.

Untuk framework agen kustom

# Agen apa pun yang dapat menjalankan perintah shell dapat menggunakan AnyCap
import subprocess, json

def search_web(query: str) -> dict:
    result = subprocess.run(
        ["anycap", "search", query, "--citations"],
        capture_output=True, text=True
    )
    return json.loads(result.stdout)

# Panggil dari loop agen Anda
context = search_web("latest API changes for payment provider")

Tidak ada SDK. Tidak ada wrapper library. subprocess.run adalah semua integrasi yang Anda butuhkan — dan agen Anda sudah tahu cara menggunakannya.


Apa yang terjadi ketika agen Anda memiliki akses web

Perubahannya langsung dan terlihat. Tugas yang dulu berhenti dengan "Saya tidak bisa mencari itu" sekarang selesai dari ujung ke ujung:

Sebelum: "Berapa harga yang dikenakan kompetitor ini?" → Agen menebak berdasarkan data pelatihan → Anda memverifikasi secara manual.

Sesudah: anycap search "competitor pricing 2026" --citations → Agen membaca jawaban yang dikutip → Agen menggabungkan data nyata.

Sebelum: "Apakah aman untuk mengupgrade dependensi ini?" → Agen tidak bisa memeriksa → Anda mencari GitHub issues sendiri.

Sesudah: anycap search "site:github.com dependency-name latest-release issues" → Agen menemukan dan merangkum masalah yang diketahui → Menginformasikan keputusan upgrade.

Sebelum: "Apa yang berubah di API?" → Agen menggunakan dokumen usang → Integrasi gagal → Anda men-debug.

Sesudah: anycap search "provider-name API changelog 2026" → Agen melihat permukaan API saat ini → Menulis kode integrasi yang benar.

Akses web tidak membuat agen Anda lebih cerdas. Ini membuat agen Anda lebih terinformasi. Kualitas penalaran selalu ada di sana. Kesenjangan informasi adalah hambatannya.


Apa yang harus dilakukan selanjutnya

  1. Instal: npm install -g @anycap/cli && anycap login
  2. Uji: Tanyakan sesuatu yang tidak bisa dijawab agen sebelumnya: anycap search "latest release of [framework you use]" --citations
  3. Amati: Perhatikan bagaimana respons agen berubah — dari "berdasarkan data pelatihan saya" menjadi "menurut dokumentasi terkini"

Hal tunggal terbesar yang membuat agen tidak bisa menangani riset nyata dan pekerjaan integrasi adalah kesenjangan pencarian. Tutup dengan satu CLI, dan agen Anda mulai bekerja dengan informasi terkini alih-alih menebak dari data pelatihannya.


Bacaan lebih lanjut: