早在2023年初,一个旅游客户来找我,展示了看起来像梦幻般的设置。他们有14,000个位置页面——英国的每个城市、每个行政区、每个邮编地区——全部从酒店和餐厅数据库自动生成。干净的模板。不错的内部链接。而且它有排名。大约四个月。
然后2024年3月核心更新来了。他们在六周内失去了71%的有机流量。我花了三周时间进行取证分析。内容本身没错。但它很空洞。每个页面都用略微打乱的顺序说同样的三件事,谷歌显然已经决定不值得提供给任何人。我们用适当的质量门槛重建了流程,在五个月内恢复到峰值的60%。不完美。但这是一个一直陪伴我的教训。March 2024 core update hit. They lost 71% of their organic traffic in six weeks. I spent three weeks doing the forensics. The content wasn't wrong exactly. But it was hollow. Every page said the same three things in slightly shuffled order, and Google had clearly decided it wasn't worth serving to anyone. We rebuilt the pipeline with proper quality gates and recovered to 60% of peak within five months. Not perfect. But a lesson that's stayed with me.
程序化SEO仍然是代理工具包中最强大的工具之一。但垃圾内容的容许度基本上已经消失了。
"质量门槛"在pSEO流程中实际上意味着什么
人们对这个术语使用得很松散,所以让我精确解释一下我在Seahawk中是如何使用它的。
质量门是一个检查点规则或测试,页面必须通过它才能发布——或者才能保持发布状态。这不是一种感觉检查。这是一个具体的、可测量的阈值,要么让页面通过,要么将其发回修订(或完全杀死它)。checkpointed rule or test that a page must pass before it gets published — or before it stays published. It's not a vibe check. It's a specific, measurable threshold that either lets a page through or sends it back for revision (or kills it entirely).
可以把它看作是内容的持续集成。开发者不会推送失败单元测试的代码。你不应该发布失败内容测试的页面。这个类比不完美,但足够有用。
没有质量门的管道就是一个内容垃圾机器。在2024年,谷歌的分类器已经足够好,能够大规模识别它。
门需要存在的三个层级
我在三个时刻构建门:
- 生成前——在任何内容编写之前。数据质量检查。这个实体是否有足够的独特属性来支持一个独立的页面? — before any content is written. Data quality checks. Does this entity have enough unique attributes to support a distinct page?
- 生成后——在AI或模板生成内容之后。长度、独特性、实体覆盖的自动评分。 — after the AI or template has produced content. Automated scoring for length, uniqueness, entity coverage.
- 发布后监控——持续进行。印象或点击率下降的页面会被标记为需要人工审查。 — ongoing. Pages that drop in impressions or click-through rate get flagged for human review.
大多数团队只构建中间层。这就是他们出错的原因。
数据充分性问题(大多数人跳过这个)
问题的关键在这里——最严重的程序化内容问题在任何文字写下来之前就已经开始了。它们始于电子表格。
如果你的源数据每个实体有12个属性,其中9个在80%的记录中完全相同,那么无论你的prompt有多聪明,都会生成近似重复的页面。我在Seahawk于2021年构建的律师事务所目录上学到了这一点。我们有6,000条律师事务所条目。其中大约4,200条除了名称、邮编和执业领域外没有任何区别。我们发布了全部6,000条。Google大概只索引了1,800条。
生成前门槛:数据丰富度评分。现在我在接触任何模板之前都会用一个简单的Python脚本运行每个数据集。它计算每条记录中非空、非通用字段的数量,并标记低于阈值的任何内容——我通常使用7/12作为最低值。未通过的记录进入"存根"类别,获得带noindex的瘦页面,或根本不创建页面。 I now run every dataset through a simple Python script before we touch a template. It counts the number of non-null, non-generic fields per record and flags anything below a threshold — I typically use 7 out of 12 as a minimum. Records that don't clear it go into a "stub" category that gets a thin page with noindex, or no page at all.
这不是什么光彩的事。但这是对我们构建的爬取效率影响最大的单一改变。
生成后的唯一性评分
所以你的数据通过了第一道门槛。内容已经生成。现在怎么办?
在发布之前,先对其进行唯一性评分——不是针对网络,而是针对你自己的页面库。近似重复的内部内容是更常见的问题,也是你更能立即控制的问题。
我为此使用两个工具的组合:
- [Copyscape的批量API](https://www.copyscape.com/api.php),用于标记与现有索引URL过于相似的页面 for flagging pages that are too similar to existing indexed URLs
- 一个自定义余弦相似度脚本(在Python中使用sentence-transformers),将每个新页面与同一模板系列中结构最相似的50个页面进行评分
我的阈值是 0.82 余弦相似度。超过这个值的内容进入人工审核。超过 0.91 的会被删除或大幅重写。
是的,这会给工作流程增加摩擦。很好。摩擦正是目的所在。
"独特"实际上需要意味着什么
真正的独特不只是改写句子。这意味着这个页面回答了只有这个实体能回答的问题。对于城市落地页,那就是超本地化数据——真实的活动列表、实际的本地统计数据、来自本地来源的具体引用。对于产品对比页面,它是能够区分这两个特定产品的数据点,而不是填充内容,只是替换了名词。this entity can answer. For a city landing page, that's hyper-local data — real event listings, actual local statistics, a specific quote from a local source. For a product comparison page, it's data points that differentiate these two specific products, not a boilerplate intro with swapped nouns.
Google 自己关于有帮助内容的指导一直就是这样说的。分类器只是在执行上变得更加严格了。 has always said this. The classifier just got aggressive about enforcing it.
实体覆盖:没人谈论的门槛
我花了更长的时间才弄清楚这一点,我对此感到恼火。
程序化构建中的每个页面名义上都是"关于"某些东西——一个地方、一个产品、一个人、一项服务。实体及其属性应该在内容中通过明确的命名、语义关联和结构化数据保持一致的呈现。如果没有,即使页面有 800 字,它读起来也会显得很薄弱。
我现在使用 spaCy 对每个生成的页面运行轻量级自然语言处理,以检查:spaCy to check that:
- 主要实体在前 100 字内被命名
- 页面正文中至少出现4个语义相关的实体或属性
- 页面包含至少一个特有于该实体的事实(来自源数据,而非模型幻想)
目前这项检查是手动进行的。我想自动化它,但还没有找到可靠的方法在规模化交叉引用验证而不产生过多误报。如果你已经解决了这个问题,我真的很想知道。
薄页面陷阱:何时使用 noindex 与何时删除
假设一个页面成功生成了,但看起来内容还是很薄。也许数据稀疏、实体冷僻,输出在技术上是独特的但不太有用。
你该怎么办?
这是我的决策树——简化版,但大致反映了我的思考方式:
- 如果页面在GSC中90天后零搜索展示:删除并301跳转到最近的相关父页面。delete and 301 to the nearest relevant parent.
- 如果页面有展示但点击率低于0.5%且无反向链接:noindex并合并到父页面或分类页面。noindex and consolidate into a parent or category page.
- 如果页面有展示、点击率不错(1%+),但平均排名较低(40+):保留,但优先考虑内容充实。keep, but prioritise for content enrichment.
- 如果页面表现良好,就别动它,停止对自己的决定反复纠结。leave it alone and stop second-guessing yourself.
我见过太多次代理商主把表现不错的页面设成noindex了。别去修复没坏的东西。
结构化数据作为质量信号(不仅仅是富摘要展现)
大多数人给pSEO页面添加schema是为了获得富摘要。这合理。但我开始把schema的完整性当作代理质量门槛来对待。
如果一个页面的schema有超过30%的空值或占位符值,那就说明底层数据太稀疏了,生成不出有用的页面。所以我们在流程中内置了一个schema验证器——它会针对我们使用的任何类型,根据Schema.org规范检查必需属性和推荐属性。没通过检查的页面会被放回数据丰富队列。Schema.org spec for whatever type we're using. Pages that fail this check go back into the enrichment queue.
Google是否把schema完整性作为直接排名信号?几乎肯定不是以简单的方式。但schema完整且准确的页面往往数据也完整准确——这些页面往往会排名靠前。相关性足够强,即使schema质量不是决定机制,我也把它当作有用的诊断工具。those pages tend to rank. The correlation is strong enough that I treat schema quality as a useful diagnostic even if it's not the mechanism.
发布后监测:持续发挥作用的门槛
质量门槛不是一次性的事。页面会退化。数据会过时。一个1月份还不错的页面,到10月可能就太薄了,因为世界变了内容却没有。
我每个月都用Screaming Frog对我们管理的每个大型pSEO网站做一次爬取,标记:Screaming Frog on every large pSEO property we manage, flagging:
- 字数低于350字的页面(剔除样板文本后)
- 标题标签与网站上超过3个其他页面匹配的页面
- 没有内部链接指向的页面(孤立风险)
我将这些与通过API导出的GSC数据进行交叉引用——特别是查找在过去60天内展现次数下降超过40%的页面。这个交集(由Screaming Frog标记且在GSC中下降的页面)是高优先级审查队列。and declining in GSC) is the high-priority review queue.
老实说,这个监控步骤是大多数代理商偷工减料的地方,因为从表面上看它没有直接账单价值。但这正是区分一个pSEO项目能否持续和在下一次核心更新后崩溃的关键。
常见问题
使用AI生成内容会自动触发Google惩罚吗?
不会。Google明确表示AI生成的内容不违反其指南——问题在于无用的内容,无论如何产生。信号是质量,而非来源。手工撰写但薄弱且重复的页面会得到相同的对待。重要的是页面是否真正比替代方案更好地满足用户的查询。如果没有,生产方法就无关紧要。unhelpful content that's the problem, regardless of how it was produced. The signal is quality, not origin. A manually written page that's thin and duplicative will get treated the same way. What matters is whether the page genuinely serves the user's query better than the alternatives. If it doesn't, the method of production is irrelevant.
在Google产生怀疑之前,程序化构建"太多"页面是多少?
没有确定的数字,你在网上看到的任何具体数字都是编造的。重要的是索引页面与排名页面的比率。如果你有20,000个页面,其中只有400个获得展现,那就是爬虫预算和质量问题。Google会开始忽略其余的。我宁愿发布3,000个优质页面,也不愿发布20,000个平庸的。索引覆盖率是要关注的指标,而不是绝对页面数。
被AI垃圾内容惩罚击中后,我能恢复吗?
是的,但这需要时间,而且不是线性的。我之前提到的那个旅游客户确实恢复了——但需要五个月的持续工作:删除最差的页面,合并中等页面,优化表现最好的页面。单个最有影响力的行动是将索引从 14,000 页减少到约 4,200 页。这违反直觉,但这就是数据显示的结果。
识别大型网站中哪些页面是"垃圾内容"的最快方法是什么?
提取过去 16 周的完整 GSC 性能数据。筛选展现次数超过 0 但点击率低于 0.8% 且平均排名在 35 以后的页面。这个集合就是你的问题集。交叉参考字数和内部链接数。低点击率、低字数和孤立页面的重叠部分几乎总是任何程序化构建中最薄弱的部分。
---
大规模建设不是低质量建设的借口。我描述的这些管控措施为新的 pSEO 项目增加了大约两到三天的设置时间。另一个选择——在核心更新摧毁你之后重建——成本要高得多。我知道这一点,因为两种方式我都做过。
