データ分析はこの20年間、同じ形を保ってきた。データを収集し、ダッシュボードを作り、誰かが何かに気づくのを待つ。TableauがExcelを置き換え、LookerがTableauを置き換えるなど、ツールは洗練されたが、根本的なループは変わっていない。データは誰かがクエリを実行するまで、倉庫に眠り続ける。
AIが変えるのは、まさにこの一点だ。「誰かが気づくのを待つ」部分を省略できるようになる。より良いダッシュボードを作るのではない。エージェントに異常を検知させ、内部データとライブWebにわたって調査させ、証拠付きの所見を届けさせるのだ——人間がノートパソコンを開く前に。
私はこれを本番環境で動作するのを見てきた。ここでは、その実際の姿と、構築に必要なものを紹介する。
3つのレベルがあり、ほとんどのツールは2つ目で止まる
レベル1:英語で質問し、SQLの結果を得る。 「先月のコホート別チャーンレートは?」→クエリに変換→結果を返す。便利だ。2026年には最低条件。しかし、これは単なる翻訳であり、AIは何も分析していない。
レベル2:システムが異常を検知する。 「過去6時間でモバイルのチェックアウト放棄に異常なスパイク」。プロアクティブな検知。ほとんどの「AI分析」製品はここで止まる。何かが変わったことに気づくのは得意だが、その理由を伝えるのは苦手だ。
レベル3:エージェントが調査する。 スパイクを検知するだけでなく、デプロイログをクエリしてリリースとの相関を調べる。使用している技術スタックの既知の問題をライブWebで検索する。GitHubのIssueやコミュニティチャンネルで同様の報告をチェックする。すべてを相互参照し、所見を届ける。
レベル3こそが、チームの働き方を変えるものだ。そしてそれには、データベースコネクタにLLMのラッパーを被せただけではない、複数のケイパビリティにアクセスできるエージェントが必要になる。
午前2時に起きていること
午前2時にエラー率が急上昇する。従来の対応:アラートが発火し、オンコール担当がダッシュボードを確認し、ログを掘り始め、既知の問題を検索し、Slackチャンネルに投稿するかもしれない。最初の有用な所見にたどり着くまで30〜90分の調査。
エージェンティックな対応:
# エージェントがスパイクを検知し、内部デプロイログをクエリ
# (DBコネクタ経由——エージェントがSQLを実行)
# エージェントが外部コンテキストを検索
anycap search "node-postgres production issues May 2026" \
--citations --output external-issues.json
# エージェントがコミュニティチャンネルをチェック
anycap search "site:github.com node-postgres connection-error" \
--citations --output community-reports.json
# エージェントがすべてを統合
anycap generate \
--prompt "異常調査レポートを作成:午前2時のエラー率スパイク。1:40 AMのデプロイと相関。external-issues.jsonの外部コンテキストが既知の依存関係の問題を示す。community-reports.jsonのコミュニティレポートが同様のエラーを確認。推奨アクションを含める。" \
--output investigation-report.md
# エージェントが公開して通知
anycap page publish investigation-report.md \
--title "異常調査:エラー率スパイク — 2026年5月"
オンコールエンジニアが目覚めたとき、目の前にあるのは生のアラートではなく、レポートだ。調査は既に完了している。推定原因は特定済み。外部コンテキストは収集済み。推奨アクションも含まれている。
これを構築するために実際に必要なもの
推論モデル。Claude Opus 4.6、GPT-5.5、Gemini 3.1 Pro——どのフロンティアモデルも調査を計画できる。モデルはボトルネックではない。
データコネクタ。データウェアハウスへのSQLアクセス。デプロイログへのAPIアクセス。この部分はほとんどのチームが既に持っている。
データを超えたケイパビリティアクセス。ここが、ほとんどの分析エージェントが壁にぶつかる場所だ。データベースにクエリを実行できるエージェントは、スマートなBIツールに過ぎない。ライブWebを検索してコンテキストを得たり、通話録音を処理したり、構造化レポートを生成したりできるエージェント——それがアナリストだ。
インフラの課題は、これらのケイパビリティを見つけることではない。それぞれに独自の認証、レート制限、レスポンス形式を持つ5つの別々のAPIをつなぎ合わせることなく、エージェントにすべてへのアクセスを与えることだ。検索、分析、生成、公開がすべてエージェントが連鎖的に使えるツールである単一のCLIが、これを解決する。
重要な変化
従来の分析は、何が起きたかを伝える。エージェンティック分析は、何が起きたか、なぜ起きたか、そしてそれに対して何をすべきかを伝える。
その違いは、より優れたAIではない。エージェントにデータベースの外側のコンテキストへのアクセスを与えることだ——なぜなら、ほとんどの異常の原因はデータウェアハウスの中だけに存在しているわけではないからだ。競合他社のプロモーション。依存ライブラリのバグ。規制の変更。これらは誰かが探しに行くまで、社内のダッシュボードには決して現れない。
関連記事:
- AIエージェントのためのAI搭載検索:グラウンデッド検索 vs RAG —— エージェンティック分析を可能にする外部検索
- 2026年のエージェンティック分析ツール:完全開発者ガイド —— プラットフォーム比較
- AIワークフロー自動化:エージェンティックパイプラインの構築 —— 完全パイプライン:検索→分析→実行
- 2026年のデータオーケストレーションツール —— エージェンティックワークフローと並ぶ従来のオーケストレーション