2024年5月,Google 内部的 Content Warehouse API 文档意外泄露,超过 2500 页、14014 个属性被公开。结合同期的 DOJ 反垄断审判证词,我们第一次看到了 Google 排名系统的工程蓝图。
这篇文章基于这些一手资料,解释 Google 如何检测和惩罚规模化内容滥用,以及为什么”批量做站、批量发内容”的策略在技术层面注定失败。
从”方法”到”意图”:Google 政策的根本转变
2024年3月之前,Google 的 spam policies 针对的是”spammy automatically generated content”——关注的是内容的生成方法。这在 AI 写作工具还不成熟的年代是有效的,因为自动生成的内容通常质量低劣、容易辨认。
但随着生成式 AI 的成熟,这个策略失效了。现代 AI 可以生成语法正确、逻辑通顺、看起来跟人写的没什么区别的内容,旧的”方法检测”完全无法应对。
于是 Google 在 2024年3月将政策更新为”scaled content abuse”,定义变成了:
当大量页面以操纵搜索排名为主要目的而被创建,且不帮助用户时,无论这些内容是如何创建的。
Google Search Liaison Danny Sullivan 说得更直接:“我们不在乎你用什么方式做规模化内容,无论是 AI、自动化还是人工,都会成为问题。”
这个转变的核心是:Google 不再追究你怎么生产内容,而是追究你为什么生产内容以及内容的结果是什么。
排名管道的时间差:为什么黑帽策略能短期有效
要理解规模化内容滥用为什么能暂时起效,需要先理解 Google 排名系统的内部架构。
DOJ 审判和 Leak 文档揭示了 Google 的排名不是一个单一算法,而是一个多阶段管道,由两套相互竞争的系统组成:
Relevance Systems(快速系统)——负责快速找到与查询相关的内容。它依赖 Topicality(T*)和 Popularity(P*)信号,反应速度很快。如果你批量发布围绕热门话题的内容,Relevance Systems 可能立刻就能找到你。
Quality Systems(慢速系统)——负责过滤不可信的内容。它依赖 Q*(站点级质量评分,包含 siteAuthority、PageRank 等)和各种 spam/trust 过滤器。这套系统反应慢,可能需要几周到几个月才能完成评估。
规模化内容滥用的本质就是在赌 Relevance 找到你和 Quality 抓住你之间的时间差。在这个窗口期内,流量是真实的,收入是真实的。但一旦 Quality Systems 完成评估,排名就会崩溃。
这也解释了为什么有些 SEO 从业者需要不断注册新域名、不断上新站——因为每个站都是消耗品,在 Quality Systems 追上来之前榨取流量,死了就换下一个。
正如 Shaun Anderson 所说:”追求速决的人失去了优势,而那些寻求协同的人则获得了确定性。”
Firefly:Google 的规模化滥用检测引擎
Leak 文档中有一个名为 QualityCopiaFireflySiteSignal 的 protobuf 模块,Shaun Anderson 对它进行了详细的取证分析。这个模块名称本身就揭示了它的功能:
- Quality——属于 Google 质量评估生态系统
- Copia——拉丁语,意为”丰富、过量”,直接对应 scaled abuse 政策中的”规模化”
- Firefly——可能引用萤火虫算法(一种启发式优化算法),用于在海量数据中发现微弱的操纵信号
- SiteSignal——在站点级别聚合评估,不是单个页面
文档对这个模块的描述只有一句话:”fireflySiteSignal – 包含用于 Firefly 排名更改的站点信号信息。”简短但明确——这个系统直接参与改变排名。
Firefly 追踪的关键属性
内容生产速度追踪:系统记录连续 30 天内新发现的 URL 数量。如果一个站从每天发 1 篇突然变成每天发 50 篇,这个指标会立刻跳变,触发审查。
高质量内容占比:Leak 中有一个属性记录内部评分系统得分 0.8 或更高的页面数量。Google 不只看你发了多少,还看高质量的占多少。如果你发了 1000 篇但只有 5 篇达到高质量标准,这个比例本身就是规模化滥用的强信号。
dailyClicks vs dailyGoodClicks 比率:这可能是最致命的指标。dailyClicks 是每日总点击量,dailyGoodClicks 是 Google 认为”好的”点击——即用户没有立即返回搜索结果(pogo-stick)。一个站可以通过关键词定位获取大量点击,但如果 dailyGoodClicks 占比很低,就意味着用户点了就走,内容没有满足需求。大量点击 + 低 goodClicks 比率 = 低质量内容的数学证据。这个数据直接来自 NavBoost 系统。
临时排名提升追踪:impressionsInBoostedPeriod 和 firstBoostedTimeSec 两个属性追踪网站在获得临时排名提升时的表现。Google 会给新内容一个”测试窗口”,观察用户行为。如果一个站反复在测试窗口中表现不佳,后续获得测试机会的可能性会越来越小。
展示量突增预警:recentImpForQuotaSystem 衡量近期曝光量,用于管理 Google 内部的抓取和处理资源。如果一个站突然发布几千个新页面导致展示量激增,可能触发资源配额系统,被标记为潜在的垃圾来源进行审核。
AI 生成内容分类评分:racterScores 是站点级别的 AGC(Auto Generated Content)分类评分,而且是 VersionedFloatSignal 类型——跟 predictedDefaultNsr 一样带版本历史记录。Google 不只看你现在有多少 AI 内容,还追踪趋势。如果 AI 内容比例突然暴增,这个信号会跳变。
需要强调的是,Firefly 是站点级信号。这意味着一个站上的规模化滥用行为不只影响被标记的页面,而是影响整个站点的排名。Patrick Stox(Ahrefs 技术 SEO)在 Edward Show 播客中确认,Ahrefs 自己都把有风险的 programmatic 内容搬到了独立域名 ahrefstop.com 上,就是为了避免站点级信号污染主站。
一致性比最高质量更重要
Leak 中还有一个容易被忽视但极其重要的属性:siteQualityStddev。
它的定义是:”网站页面级 PQ 评分的标准差估计值。”
翻译成大白话:Google 为你站上的每个页面都打了一个质量分(pqData),然后计算这些分数的离散程度。标准差越高,说明你站内页面质量波动越大。
John Mueller 在 2025 年说过:”一致性是技术 SEO 最重要的因素。” 这不是泛泛而谈,是在描述 siteQualityStddev 这个属性的工作方式。
Google 在 2011 年发布 Panda 指南时就已经明确说过:”网站某些部分的低质量内容会影响整个网站的排名。因此,删除低质量页面、将内容单薄的页面合并为更有用的页面,或者将低质量页面迁移到不同的域名,最终都有助于提升高质量内容的排名。”
现在通过 Leak,我们知道了执行这段话的具体属性:
- 低质量内容 = 低 pqData 整数值
- “影响整个网站” = 高 siteQualityStddev
- “删除、合并或迁移” = 这是降低标准差的唯一统计学方法
你的排名不仅取决于你最好的作品,还取决于你与卓越水平的偏差。 一个站上有 10 篇优秀文章和 100 篇垃圾文章,siteQualityStddev 会很高,那 10 篇优秀文章的排名潜力会被 100 篇垃圾拖垮。
声称与实际的不匹配:虚伪惩罚
这是 Shaun Anderson 在 Contextual SEO 中提出的一个重要概念。
Google 的 Quality Raters 被训练去寻找网站声明和实际行为之间的不匹配。Quality Rater Guidelines Section 7.0 明确指出:声明目的与实际内容之间存在不匹配的页面应被评为最低质量。
举个例子:如果你的 About 页面写着”我们是一支由资深专家组成的团队,每篇内容都经过严格审核”,但你实际上每天发布 50 篇未经编辑的 AI 内容——这就是 Deceptive Page Purpose。
在 Leak 属性中,这种行为可能触发 scamness(欺骗性评分)和 unauthoritativeScore(非权威评分)。
核心原则:你的内容生产价值必须与你的政策声明对齐。 你不能用一个精心制作的 About 页面来伪造 E-E-A-T,如果你的实际产出与声明严重不符。
四种系统性失败模式
Contextual SEO 框架定义了四种不是内容问题、而是系统性问题的失败模式,单靠改进内容无法解决:
语境过度延伸(Context Overreach)——当一个网站试图在需要更多信任、权威或机构支持的查询中获得排名时,就会出现上下文过度扩张,而这超出了它所能合理证明的范围。比如一个个人博客试图排名”心脏病治疗方案”这种 YMYL 查询。
实体膨胀(Entity Inflation)——在没有外部证据支持的情况下,以品牌、出版商或机构的身份出现。这会造成信任摩擦和排名阻力。Google 通过 EntityAnnotations 和 Knowledge Graph 来验证你声称的身份。
意图漂移(Intent Drift)——页面暂时对一些它实际上并不满足的查询排名靠前,最终导致排名下降。这就是 NavBoost 的 lastLongestClicks 机制在起作用——如果用户的搜索任务没有在你的页面上完成,你的排名会随时间衰减。
信任信号债务(Trust Signal Debt)——源于用户体验问题、激进的盈利模式、信息披露不充分或声誉差距。这些问题会随着时间的推移悄无声息地侵蚀信任。Leak 中的 clutterScore(杂乱度评分)就是衡量这类问题的属性之一。
这四种模式的共同特点是:它们不是内容问题,是系统性和背景性问题,单靠写更好的内容或获取更多外链无法解决。
三层链接索引:规模化策略的致命打击
Leak 文档揭示了一个此前未知的机制:Google 维护三个不同层级的链接索引——低质量、中质量和高质量。链接页面在这些层级中的位置由 SourceType 属性决定。
机制非常直接:如果一个页面上的链接没有收到任何用户点击(TotalClicks 为零),该链接会被归入低质量索引。在这个层级中,排名算法实际上会忽略该链接。 它不传递任何 PageRank 值,也不传递任何锚文本信号。对于排名来说,这条链接等于不存在。
这对规模化策略意味着什么?如果你批量发布了几千个页面,这些页面没有真实用户访问和互动,那么这些页面上的所有内链和外链都不会传递任何价值。你以为在通过内链把权重导向 money page,实际上这些链接被归入了低质量层,什么都没传递。
同时,anchorMismatchDemotion 属性表明,在完全不相关的页面上放置精确匹配锚文本的链接不仅仅是浪费——它可能对你的排名造成实际损害。
获取链接不再是终点。让链接所在的页面获得真实用户互动验证,才是让链接产生价值的前提条件。
与算法协同,而不是对抗
Shaun Anderson 在总结整个 Leak 分析时说了一句话:”武器会迅速老化,但理论不会。”
Leak 揭示的不是如何赢得明天排名的战术,而是 Google 排名系统的底层理念。Google 可以调整阈值、重命名系统、注入噪声,但它不能放弃:
- 信任积累
- 声誉记忆
- 以用户满意度作为评判标准
- 预排名资格门槛
- 资源受限情况下的分诊
理解这些原则,然后按照这些原则去建设你的网站,就是在与算法协同。每一次 Google 核心更新都会让遵循这些原则的站点受益,因为更新的方向就是你在做的方向。
反过来,每一次试图对抗算法的策略——无论是批量做站、大量发 AI 内容、还是操纵链接——都是在跟 Google 几万个工程师和他们持续迭代了 20 年的系统博弈。即使赢了也是暂时的。如果你的网站已经因为算法更新遭受了流量下降,与其继续对抗,不如系统性地诊断问题并恢复排名。
正如孙子在《孙子兵法》中所说:”没有哪个国家能从旷日持久的战争中获益。”
规模化内容滥用就是一场旷日持久的战争。而 Google 有的是时间。
独立Google SEO专家,ylsseo.com创始人,基于Google专利与API Leak解读排名机制,中文SEO启蒙第一人。