2022年、クライアントが地元サービスディレクトリの構築に40,000ポンドを費やすのを見ました。デザインは美しく、Airtableのクリーンなベースから自動生成された80,000ページでした。3月にローンチしましたが、6月までにはインデックスされたページが214ページになり、まったくランクインしていませんでした。問題はアイデアそのものではなく、ディレクトリは依然としてプログラマティックSEOの中で深刻なオーガニックトラフィックに成長する数少ない施策の一つです。問題は、技術的にはすべて正しく実行されていたが、戦略的には完全に間違っていたことです。
このポストはその過ちを回避することについてです。
---
2026年のディレクトリにおけるプログラマティックSEOが実際に意味すること
人々はこのフレーズを一つの概念のように使っていますが、そうではありません。ディレクトリの場合、プログラマティックSEOは単一のテンプレートと構造化されたデータソースから、場所、カテゴリ、または属性でスコープされた数百または数千のページを生成することを意味します。そして、各ページがGoogleに、手書きされた競合他社よりもそのページをランクインさせる理由を与えるような方法で実行することです。
ほとんどのディレクトリがつまずく部分はそこだ。
2026年版のこのゲームは、2019年当時より難しくなっている。Googleの有用なコンテンツシステムは2023年後半からコアランキングアルゴリズムに組み込まれており、つまり薄っぺらなテンプレートページはページレベルではなくサイトレベルで低評価を受ける。1回の悪い大量生成があなたのドメイン全体を沈める可能性がある。僕は見てきた。Seahawkは2023年後半に旅行アグリゲータプロジェクトを手がけていたが、各ページ約90語のテキストとリスティングテーブルを含む12,000個のシティページが、ローンチからわずか8週間でドメイン全体のクロール予算を底に沈めた。Google's Helpful Content systemhas been baked into the core ranking algorithm since late 2023, which means thin templated pages get downweighted at a site level, not just a page level. One bad batch can tank your whole domain. I've seen it. Seahawk had a travel aggregator project in late 2023 where 12,000 city pages — each with roughly 90 words and a listings table — dragged the entire domain's crawl budget into the floor within eight weeks of launch.
だから基準値は高くなっている。ただし機会はいまだに莫大だ。
---
データレイヤーがすべてだ
幅広さではなく深さを持つソースから始める
ほとんどのディレクトリビルダーは「50,000件のリスティングをどうやって取得するか」と問う。本来なら「各リスティングについて実際に何を知っているのか、他には誰も知らないことは何か」と問うべき。
小〜中規模プロジェクト(100k件以下のレコード)にはAirtableを使い、それより大規模なものはSupabaseか素直なPostgreSQLセットアップのどちらかを使う。ツール自体より重要なのはスキーマだ。データベース内のあらゆるリスティングに、差別化されたページコンテンツを生成できるフィールドがなければならない。名前、住所、電話番号だけではない。設立年、価格帯、平均レビュー感情、検証済みレビュー数、専門分野、最後に検証した日付、市街地中心部からの距離、物理的な所在地を持つか遠隔のみか。differentiatedpage content. Not just name, address, phone. Think: year founded, price range, average review sentiment, number of verified reviews, specialisms, last verified date, distance from city centre, whether they have a physical location vs. remote-only.
フィールドが多いほど、オンページで差別化する角度が増える。シンプルにそれだけだ。
スクレイピング vs. ライセンスデータ vs. ユーザー投稿
正直なところ、3つすべてに役割があり、私は3つすべてを使用してきました。
- スクレイプしたデータは高速で安価ですが、品質が急速に低下します。2021年に私が運営していたイギリスの会計士ディレクトリはCompanies Houseのデータをスクレイプしていましたが、14ヶ月以内に23%のレコードが古くなってしまいました。is fast and cheap but degrades quickly. I ran a UK accountants directory in 2021 that scraped Companies House data. Within 14 months, 23% of the records were stale.
- ライセンス済みデータフィード(Dun & Bradstreet、Yext、業種別APIなど)は高額ですが正確です。マネタイズモデルがそれに対応していれば、投資する価値があります。(think Dun & Bradstreet, Yext, or vertical-specific APIs) are expensive but accurate. Worth it if your monetisation model supports it.
- ユーザー投稿型のリスティングは立ち上がりは遅いですが、Googleが報酬を与える鮮度シグナルを生成します。リスティングが200件であっても、初日から「リスティングを登録する」フローを追加してください。start slow but create the freshness signals Google rewards. Add a "claim your listing" flow from day one, even if you have two hundred listings total.
18~24ヶ月かけてトラフィックを複合成長させるディレクトリは、ほぼ例外なくライセンス済みシードデータと継続的なユーザー貢献を組み合わせたものです。
---
テンプレートアーキテクチャ:誰も話さない部分
ほとんどのチュートリアルが見落とすポイントがあります。プログラマティックディレクトリがランク付けされるのか、それとも検索結果から除外されるのかの違いは、通常はデータレベルではなくテンプレートレベルです。
1つのテンプレートでは不十分です
最低3つのテンプレート層が必要です:
- ハブページ(「ロンドンの弁護士事務所ベスト10」的なもの)。競争が激しく、編集的なトーン。手動でキュレーションされるか、大幅に充実させられたもの。これらはリンクを向ける対象ページです。— "Best Solicitors in London" style. High competition, editorial tone, manually curated or heavily enriched. These are the pages you point links at.
- カテゴリ×地域ページ(「マンチェスターのファミリーロー弁護士事務所」など)。ミッドテールです。テンプレート化できますが、少なくとも1つの動的セクションが必要です。それは本当にユニークなデータを取得します(レビュー数、平均費用帯、注目の掲載情報)。— "Family Law Solicitors in Manchester". Mid-tail. These can be more templated but need at least one dynamic section that pulls genuinely unique data (review counts, average fee bracket, notable listings).
- 個別掲載ページ — リーフノード。データの豊富さで成否が決まります。すべての掲載ページが同じ60語の説明と電話番号だけなら、Googleはすぐに気づきます。— The leaf nodes. These live or die by data richness. If every listing page has the same 60-word description and a phone number, Google will figure that out fast.
この分割パターンを過去2年間に4つのディレクトリプロジェクトでテストしました。階層が明確な3段階構造のものは、インデックス後90日以内に、Google Search Consoleのインプレッションデータで一貫してフラット構造を上回りました。偶然ではありません。Google Search Consoleimpression data within the first 90 days of indexing. Not a coincidence.
実際に役立つ動的コンテンツブロック
AI生成の定型文でページを詰め込むのをやめます。代わりに、以下を取得するテンプレートロジックを構築します。
- 同じ郵便番号地区内の関連掲載
- 自社アナリティクスから「閲覧済みカテゴリ」も
- 「最終更新」タイムスタンプ。実際に正確なもの(JSで今日の日付を単に挿入したものではなく)
- ユーザーレビュースニペット。3件のレビューしかなくても大丈夫。本物3件 > 偽造ゼロ件です。
リーフノードのリスティングページに訪れたユーザーが、自分でGoogleで検索しただけでは得られない何かを持ち帰ることが目標です。
---
内部リンク:最も活用されていないランキング要因
ぶっちゃけ言うと、ほとんどのプログラマティックディレクトリは内部リンク構造が致命的です。ページは存在します。でも役に立つところには何もリンクしていない。Googleのクローラーが訪問して、行き止まりだと判断して、そのサブディレクトリ全体の優先度を下げてしまいます。
ディレクトリの適切な内部リンク構造はおおよそこんな感じです:
- ホームページ → トップハブページ(手動キュレーション、8~15リンク)
- ハブページ → カテゴリ×地域ページ(動的、リスティング数に基づく)
- カテゴリ×地域ページ → 個別リスティング(ページネーション、1ページあたり最大20~25件)
- 個別リスティング → 関連するカテゴリ×地域ページ(2~3個の関連リンク)
- 個別リスティング → 距離ベースのクエリで「近くの」リスティング
その最後の1つ——近隣のリスティング——は過小評価されています。リーフノード内にクローラブルなウェブを作り出し、Googlebotをハブまで跳ね返すのではなく、サイト全体を移動し続けさせるのです。2024年初頭にバーミンガムのクライアント向けデンタルディレクトリにこれを実装したところ、GSCからのクロール率が6週間以内に3.4倍になりました。
Screaming Frogを使ってリンクグラフを監査するなら、ローンチ後ではなくローンチ前に実施してください。無料版は最大500 URLまで対応でき、テンプレートの健全性チェックには十分です。Screaming Frogto audit your link graph before you launch, not after. The free tier handles up to 500 URLs, which is plenty for a sanity check on your templates.
---
大規模なインデックス化対応——火傷を避ける方法
Googleはあなたの8万ページすべてをインデックスしません。それを受け入れてください。それに合わせて対応しましょう。
私が使っている実践的なアプローチ:
- ローンチ日のサイトマップには、ハブページとカテゴリ×ロケーションページのみを送信する
- Googlebotがリーフノードを発見するのはサイトマップではなく内部リンクを通じて行わせる
- 薄い、重複している、またはデータが不足しているリスティングページには、リッチ化できるようになるまで積極的にnoindexを使用する
noindexaggressively on thin, duplicate, or low-data listing pages until you can enrich them - GSCでクロール予算レポートを設定し(設定 → クロール統計)、最初の3ヶ月間は週1回チェックする
noindex のアドバイスはいつも反論を受ける。「でも、全ページをインデックスしてほしい!」そっか。でも Google も全ページが質の高いものであってほしい。4万ページの薄っぺらいページをインデックスさせながら、同時に健全なドメインオーソリティを保つことはできない。どちらかを選べ。noindexadvice always gets pushback. "But I want all my pages indexed!" Yeah. And Google wants all of them to be good. You can't have 40,000 thin pages indexed and also have a healthy domain authority. Pick one.
もう一つ:ページネーション。適切な場所では rel="next" と rel="prev" を使え。ただし、そもそもページネーション付きのカテゴリーページが必要かどうか検討してほしい。最近の 3 つのプロジェクトでは、ページネーション付きのリストを JS で読み込む「さらに表示」方式(クローラー向けの静的フォールバック付き)に置き換えて、60 日以内に GSC のインデックスパターンがクリーンになった。rel="next"andrel="prev"where appropriate, but also consider whether you need paginated category pages at all. On three recent projects I replaced paginated listings with a JS-loaded "show more" approach (with a static fallback for crawlers) and saw cleaner indexation patterns in GSC within 60 days.
---
大規模なコンテンツ充実化—正気を失わずに
よし。薄いページが死を招くことは認めたな。では、コンテンツライターのチームなしで 2万ページのリスティングを実際に充実させるにはどうするか?
実務で機能するいくつかのアプローチ:
- 構造化レビュー集約。Google ビジネス プロフィール API 経由でデータを取得するか、ToS が許せば Trustpilot や Yelp から慎重にスクレイピングする。星評価とレビュー数を構造化データとして表示するだけでも、測定可能な差別化が生まれる。Pull from Google Business Profile data via their API, or scrape (carefully) from Trustpilot or Yelp where ToS allows. Even a star rating + review count displayed as structured data adds measurable differentiation.
- 自動化された鮮度シグナル。週 1 回リスティングにリクエストを送って、ビジネスウェブサイト、電話番号、住所が変わったかチェックするスクリプトを書く。レコードを更新する。ページに「最後に確認」日時を表示する。これだけで、あるリーガルディレクトリのバウンスレートが 18% 低下した—人は最新のデータを信頼する。Write a script that hits your listings weekly and checks whether the business website, phone, or address has changed. Update the record. Show the "last verified" date on the page. This alone reduced our bounce rate on a legal directory by 18% — people trust current data.
- LLM 支援の要約は慎重に使う。十分な生データがあるリスティングの構造化要約を生成するのに GPT-4 を使う。ただしプロンプトはそのリスティングの特定のデータフィールドに厳密に制限されている—汎用的なテキストを生成しているわけではない。すべての要約は、本番前に重複を検出するため類似度チェック(全コーパスに対する基本的なコサイン類似度スクリプト)を通す。I do use GPT-4 to generate structured summaries for listings where we have enough raw data. But the prompt is tightly constrained to the specific data fields for that listing — it's not generating generic blurb. And every summary is filtered through a similarity check (I use a basic cosine similarity script against the full corpus) to catch near-duplicate outputs before they go live.
---
マネタイズモデルはあなたのSEOアーキテクチャを形作る
これは人々を意表に突かせます。ディレクトリからお金を稼ぐ計画のやり方は、優先順位を付けるページ、必要なデータの深さ、ランキングに必要なコンテンツ充実化に費用を割けるかどうかに直接影響します。
一貫して機能しているモデルは3つあります。
- 有料リスティング/フィーチャード掲載。シンプルです。ビジネスはより高い位置に表示されたり、プロフィールを充実させたりするために支払います。マーケットプレイスのダイナミクスを作るために無料ティアを成長させることを奨励します。Simple. Businesses pay to appear higher or with enhanced profiles. Incentivises you to grow the free tier to create the marketplace dynamic.
- リード獲得。フォーム送信を取得し、ビジネスに販売します。コンバージョンあたりの収益は高いですが、フォーム入力に必要な信頼を得るために大幅により充実したリスティングページが必要です。You capture enquiry form submissions and sell them to businesses. Higher revenue per conversion but requires significantly richer listing pages to earn the trust needed for form fills.
- アフィリエイト/紹介。ソフトウェア、ファイナンス、ホスピタリティなど確立されたアフィリエイトプログラムがある業界で機能します。SaaSツールカテゴリのニッチディレクトリは、キーワードターゲティングが正しければ、5,000ページ以下でこのモデルで月£10k~£30kに達することができます。Works well in verticals like software, finance, or hospitality where there are established affiliate programmes. Niche directories in SaaS tool categories can hit £10k–£30k/month on this model with under 5,000 pages if the keyword targeting is right.
テンプレートを設計する前にモデルを選びます。リード獲得ディレクトリは初日からすべてのリスティングページに信頼シグナルとコンバージョン要素を組み込む必要があります。後から追加するのは常に聞こえるほど簡単ではありません。
---
FAQ
プログラマティックSEOはGoogleの2024年アルゴリズムアップデート後も機能しますか?
そうですね。ただし「十分良い」という基準は、わずか2年前よりも大幅に高くなっています。2024年3月のGoogleコアアップデートは、特にテンプレート化されたAIコンテンツに頼り、独自データを持たない、多くの薄いプログラマティックサイトに大きな打撃を与えました。真の深いデータと明確なエンティティ関係を持つサイトは問題なく乗り切りました。一部の業種では、薄いコンペティターが除外されたため、それらのサイトは実際に地盤を広げました。March 2024 Google core updatehit a lot of thin programmatic sites hard — particularly those relying on templated AI content with no unique data. Sites with genuine data depth and clear entity relationships weathered it fine. In some verticals, those sites actually gained ground as thin competitors got filtered out.
初日にはどのくらいのページ数で立ち上げるべきですか?
Googleのコンセプトを実証するのに必要な最少限です。私は50,000の薄いページより、500の本当に良いページで立ち上げることを好みます。まずハブページと上位20のカテゴリ×地域の組み合わせを構築してください。インデックスされるのを待ち、早期のランキング信号を得て、その後はロングテールをバッチで展開します。初月に100,000ページに急いで到達するのはほぼ常に間違いです。
どのCMSまたはテックスタックを使うべきですか?
ほとんどのクライアントに対して、私は依然としてWordPressをカスタムポストタイプとACF Proとともに使い、データベースからプル制御しています。見栄えは良くないかもしれませんが、構築が速く、引き継ぎが簡単で、SEO用プラグインエコシステム(特にRank Math)は成熟しています。50,000ページ以上のより大規模なプロジェクトの場合、私は通常Next.jsとPostgreSQLまたはSupabaseバックエンドでヘッドレス化します。Next.jsのSSG/ISR機能は、規模でクロール動作をクリーンに保つために本当に有用です。
プログラマティックディレクトリがランキングされ始めるまでどのくらいかかりますか?
現実的には?アーキテクチャが正しく、Googleが明示的に大規模な確立されたブランドを好む業種にいないと仮定した場合、有意義なトラフィックまで6~9ヶ月です。4ヶ月で勢いを得た例外的なケースや、18ヶ月かかった失望的なケースを見てきました。最も重要な変数は、正直なところ、トピック権威です。初日から特定の業種における専門知識をどれだけ明確に確立するかということです。
---
ディレクトリSEOプレイブックは死んでいません。Googleによって適切に価格差別されただけです。2023~24年に焼き尽くされたオペレーターのほとんどは、価値ではなくボリュームのために構築していました。まず価値のために構築してください。深いデータ、正直な充実、Googleが実際にクロールする方法を尊重するリンクアーキテクチャ。ボリュームは時間とともに自動的に処理されます。いつもそうでした。
