「AI検索キーワードリサーチ」を目にするマーケターの多くは、どこから始めればよいのか分からない状態にある。このカテゴリーはまだ2年目だ。用語も定着していない(AEO、GEO、AI search optimisation、LLMO――同じものなのに4つの呼び方がある)。ツール市場は分断化している――Ahrefsやsemrushが従来型のリサーチをカバーするように、ワークフロー全体をカバーする単一製品は存在しない。その結果、「こういうことをやるべきだ」という認識はあるが、「火曜日の朝は具体的にこれをやっている」という現実はない。
ここに具体的なプレイブックを示す。7つのステップを順番に実行し、ほぼ既存のツールを活用する。単一トピックの初回実行では2~4時間の時間投資が必要だが、筋肉記憶が付いた後は1トピックあたり20分に短縮される。APIコストは有料ソースを使う場合1トピックあたり0.20~0.50ドル、無料ツールだけなら0ドル。
これはコンテンツブリーフを最終成果物として生み出すバージョンだ。「書くべき質問10個」ではなく、H2構造、引用価値のあるデータポイント、スキーマタイプ、予測される引用結果が含まれた実際のブリーフ。
ステップ1――キーワードではなく、シードを選ぶ
従来型のキーワードリサーチはキーワードから始まる。AI検索キーワードリサーチはトピック――通常は実際の顧客の懸念を捉えた3~5語のフレーズから始まる。「best running shoes flat feet 2026」ではなく「running shoes for flat feet」。シードは回答を持つ程度には具体的でありながら、複数の下位質問を持つ程度には広くなければならない。
最も効果的なシードは購買者の行動局面です。「WordPressとWebflowの選択肢」「50k ページサイトの移行でSEOを失わない方法」「卸売ジュエリーサプライヤーで何を探すか」。質問に近い、意思決定に近い内容です。単一キーワードではなく、ブランド名でもない。
ステップ2 — 5つのソースから並行して質問を抽出する
5つの場所、シグナル・ノイズ比の順序で。
DataForSEO People Also Ask + オートサジェスト。Google の標準的な「実在する質問」シグナル。コスト:1つのシード拡張につき約 $0.05。無料の代替案:AlsoAsked 無料版(1日3検索)。
Reddit API経由での Reddit 検索。無料、自然な形式での購買質問に非常に有用。あなたのトピックに合致するサブを検索 — r/SEO、r/marketing、r/buildapcsales など。過去12ヶ月の上位30スレッド(アップボート数順)。
Stack Exchange API。無料、技術的またはハウツートピックに最適。承認された回答スレッドでフィルタリングして、実際に回答を得た質問を確認。
Quora — 手動またはSERP スクレイピング経由。2020年以降品質が低下していますが、B2C とライフスタイルトピックにはまだ有用。SerpAPI は月 $20 から。
Tavily のセマンティック検索または Claude の web_search。構造化された PAA で見逃されるロングフォーム記事、ポッドキャスト、YouTube説明欄内の質問を表示。コスト:検索あたり $0.005~0.01。
5つの出力を1つのリストに統合。典型的なシードで80~150の生質問を想定。
ステップ3 — 手作業ではなく LLM でクラスタリングする
100個の質問リストは実行不可能です。8~15個の質問クラスターに分類する必要があります。各クラスターは異なるサブトピックを代表します。手作業でこれを行うと1時間かかり、一貫性がありません。ClaudeまたはGPT-4を使うと30秒で完了し、より一貫性があります。
機能するプロンプトテンプレート:「以下の[トピック]に関する120個の質問を8~15個のセマンティッククラスターにグループ化してください。各クラスターに短いラベルを付け、構成する質問をリストアップし、クラスターを最もよく要約する正準質問を特定してください。」出力をマークダウンテーブルまたはGoogle Sheetにエクスポートします。
コスト:トピックあたりClaude API呼び出しで約$0.02。
ステップ4——各クラスターを3つの数字でスコア化する
各正準質問(クラスターあたり1つ)について、DataForSEOから3つのメトリクスを取得します。
検索ボリューム——正準質問の月間検索数。50以下のカテゴリーは購買決定モーメント周辺にクラスターしている場合でも対象に値し、1000以上のカテゴリーは優先する価値があります。
キーワード難易度(KD)——Ahrefs/Semrush相当のスコア(0-100)。30以下はDR-15サイトにとって現実的。30~50は6~12カ月の権威構築で達成可能。50以上は非エンタープライズサイトにとって困難です。
AI Overview登場——はいまたはいいえ。現在Google AI Overviewでその質問について表示されているか。DataForSEOが直接返します。イエスのフラグが付いた質問は、AIがトラフィックをインターセプトしている場所なので優先度が高い。
ステップ5——上位10クラスターについてAIエンジンにクエリする
組み合わせスコアで上位10クラスターについて、各AIエンジンにクエリを実行し、回答と引用元を記録します。
ChatGPT — OpenAI APIと GPT-4o-miniで最も簡単。コスト:1クエリあたり約$0.001。回答を返しますが、引用元をテキストから推測する必要があります(精度にばらつきあり)。
Perplexity — 最もクリーンな引用元表示。Perplexity APIを使用。コスト:1クエリあたり約$0.005。回答と引用URLのリストを返し、推測不要。
Claude with web_search — Anthropic APIとweb_searchツール有効。コスト:1クエリあたり約$0.01。回答とインライン形式の引用元を返す。最新かつ技術的なソースの掘り起こしに特に優れている。
Google AI Overview — DataForSEOがSERP レスポンスでこれをキャプチャ。SERPクエリ費用以外に追加コストなし。
4つのエンジンそれぞれについて、回答テキストと引用ドメインを保存する。
ステップ6 — 引用ギャップマトリクスを構築する
トップ10クラスタそれぞれについて、4つのAIエンジンの回答と4つの引用ドメインリストを用意。1つのマトリクスに統合する。
行:クラスタ。列:4つのエンジン全体における引用ドメイン。値:4つのエンジン間における引用カウント。
列を引用カウント合計の降順でソート。上位10列が、あなたのトピックでAI検索の可視性に勝利しているドメイン。あなたのドメインが上位10に入っていない場合、それが競争上のギャップ。
各クラスタについて、引用カウント最多のドメインを特定し、そのドメインが引用されているページを読む。見つけ出すパターン(H2構造、引用密度、スキーマ使用法、引用されている具体的なデータポイント)が、あなた自身のコンテンツのテンプレートになる。
ステップ7 — コンテンツブリーフを作成する
スコアの上位5~10クラスタごとに、ページタイトル、URLスラッグ、プライマリキーワード、セカンダリキーワード、目標ワード数、H2構造(クラスタ内の各サブクエスチョンにつき1つのH2)、引用に値するデータポイント、スキーママークアップタイプ、追加すべき内部リンク、予測される引用アウトカム(このコンテンツが対象とするAIエンジン)を含むコンテンツブリーフを作成します。
LLM生成ブリーフは、手書きよりもブリーフあたり30~60分の時間を節約できます。適切なプロンプトテンプレートは、上記の構造を明示的に指定します。
実際のワークフローはこのようになります
実務では、7つのステップが次のように実行されます:30分の収集(並列APIコール)、10分のクラスタリング(LLM)、20分のスコアリング(DataForSEOバルクエンドポイント)、30分のエンジンクエリ(並列)、30分の引用ギャップ分析(マトリックス作業)、60分のブリーフ生成(LLM支援)。初回は1つのトピックで3時間。10回目までに1トピックあたり20分。
またはすべてを手動で実行したくない場合は、/tools/ai-search-keyword-research/ の無料ツールがステップ1~6を30秒以内にエンドツーエンドで実行し、ステップ7で必要なブリーフ出力を生成します。このツールは内部で同じAPI(DataForSEO、Reddit、Perplexity、Claude)によって駆動されています。
よくある質問
無料ツールだけでAI検索キーワードリサーチができますか?
ほぼはい、部分的にはいいえ。無料スタックは:AlsoAsked無料版 + Reddit API + Stack Exchange API + ChatGPT無料版(手動クエリ)+ Perplexity無料版(手動クエリ)です。3つのことが失われます:DataForSEO検索ボリューム + KD(質問あたり)、Perplexity/Claudeのプログラマティッククエリ(手動の方が遅い)、ブリーフ生成の自動化です。5つのトピックであれば、無料スタックで十分です。継続的な大規模リサーチには、有料APIで時間が節約できます。
AIサーチキーワードリサーチをどのくらいの頻度でトピックについてリフレッシュすべきですか?
AI エンジンの検索結果は Google SERP よりも速く変わります。活動的なトピックについては 4~8 週間ごとに更新してください。常時参照されるトピックについては 90 日ごとです。更新を促すシグナルは、あなたのトップクラスターに対する AI Overview の回答が意味のあるレベルで変わるときです — つまりエンジンが検索セットを更新したということです。
AI 検索キーワードリサーチを従来の SEO リサーチの前にやるべきか、後にやるべきか?
並行して実施してください。2 つのワークフローはデータソース(DataForSEO、オートサジェスト)を共有しており、1 つの統合プロセスとして実行できます。両方を別々の時間に行っているほとんどのチームは重複した作業をしています。統合されたワークフローが将来の状態です。
この先でコンテンツブリーフはどのような形になりますか?
3 ページ、構造化。ページ 1:メタデータ — タイトル、スラッグ、主要キーワード・副次キーワード、目標文字数。ページ 2:構造 — H2 レベルのアウトラインで 1 つの H2 が 1 つのサブクエスチョンに対応、推奨される H3、含めるべき引用可能なデータポイント、固有表現、スキーマタイプ。ページ 3:引用戦略 — このコンテンツが対象とする AI エンジン、借用しているライバル企業のパターン、予測される引用結果。
このことをやるときチームが犯す最大の間違いは何ですか?
キーワード練習として扱うこと。アウトプットはキーワードのリストではありません。アウトプットは予測される引用結果を持つコンテンツブリーフのリストであり、パッセージ抽出のために書かれ、検索のために構造化されたものです。このワークフローの最後にキーワードリストを作成しているチームは、1/3 の作業しかしていません。
次にやること
まず大局的な説明を知りたいなら、AI 検索キーワードリサーチ 2026 に関するピラー記事を読んでください。
あなた自身のトピックでワークフローを実行したいなら、/tools/ai-search-keyword-research/ の無料ツールが約 30 秒で 7 つのステップをすべて実行します。
AEO、GEO、伝統的なSEOのキーワードリサーチを学問として比較したい場合は、このクラスタの次の記事をご覧ください。
または、これがあなたの特定のブリーフにどのように適用されるかについて話し合いたい場合は、30分のコールを予約してください。
