中文SEO圈有几个根深蒂固的说法:”内容为王”、”要写原创内容”、”要有一手数据”、”内容质量是排名因素”。
这些说法听起来合理,但经不起推敲。当你把它们放到Google ranking pipeline的实际机制下去检验,每一个都站不住脚。
David Quaid说过一句话:Google is not a content appreciation machine. Google不是内容鉴赏机器。它不会读完你的文章然后拍拍手说”写得好,给你排第一”。
那Google到底在做什么?它在计算信号。
先说清楚一点:这篇文章不是在告诉你不要做好内容。 恰恰相反——你应该做好内容,但要搞清楚为什么做、为谁做。不是为了让Google鉴赏你的文字,而是为了让用户在你的页面上产生正面的行为信号。目的变了,做法不变。理解了这个区别,你的每一分精力才花在了正确的地方。
“原创内容能排上去”——不能
你写了一篇充满原创见解的文章。很好。但Google的ranking pipeline里没有一个环节在评估”原创性”。
BM25——倒排索引检索阶段用的核心算法,计算的是词频、逆文档频率和文档长度归一化。你的观点是不是原创的,BM25不关心,它只关心你的页面里有没有这些词,出现了几次。
向量索引(Cosine Similarity)——语义检索阶段的核心,把文档和查询转化成多维向量,计算语义相似度。它衡量的是”这篇文档跟这个查询在语义上有多接近”,不是”这篇文档跟已有文档有多不同”。
一篇原创文章,如果所在的站没有authority,没有用户行为数据支撑,在Mustang初始排序阶段就被过滤掉了,连进入Re-ranking的机会都没有。
“一手数据/独特数据帮助排名”——不帮助
有人说在文章里加入自己的原创数据、原创图表,Google会因此给你加分。
不会。因为Google没有能力验证你的数据是不是”独家的”。2024年泄露的Google Content Warehouse API文档包含了14,000多个属性,其中没有发现contentOriginality或uniqueDataScore这类字段。Google的索引系统不做内容鉴赏,它做的是信号计算。
需要说明的是:Google确实能量化内容的某些结构特征——比如entity覆盖度、语义完整性、boilerplate比例等。API Leak中的EntityAnnotations、pageEmbeddingsVersion等属性证实了这一点。但这些本质上属于relevance(相关性)维度的信号——它们回答的是”这个页面跟查询匹配不匹配”,不是”这篇文章写得好不好”。这跟”内容质量鉴赏”是完全不同的事。
你的”一手数据”对排名有没有帮助?有可能。但不是因为Google识别了它的独特性,而是因为一手数据可能引发外部引用(backlink)、可能促使用户浏览更多页面、发起询盘或产生更深层的交互行为、可能被其他站分享产生referral流量。这些间接效应才是真正起作用的信号,不是数据本身。
“内容质量是排名因素”——不是
Google的ranking pipeline由以下几个核心系统组成,每一个处理的都是可量化的信号,没有一个在判断”内容质量”:
索引阶段的Q(Quality Score)**——根据DOJ v. Google反垄断案庭审证词,Q是Google两个顶层排名信号之一(另一个是Popularity P*),由PageRank、SpamBrain(ML垃圾分类器)、siteAuthority、HCU classifier等信号组成。这些是在你的内容被任何用户看到之前就计算好的预置信号,跟你的内容写得好不好没有直接关系。
SegIndexer分层——根据API Leak泄露文档和DOJ庭审中的证词,Google的索引系统可能将页面分配到不同层级(文档中出现了Base、Zeppelins、Landfills等层级名称)。scaledSelectionTierRank这一属性被认为决定了文档的存储层级。被分配到低层级的页面,在检索阶段可能根本不会被调出来。这个分层基于站点级别的质量信号,不是基于某篇文章写得好不好。
FastRank(Mustang初始排序)——把BM25分数、Cosine Similarity分数、索引期的Q*信号、NavBoost点击数据组合起来,产出一个初始排名列表。这里没有”内容质量评估”这个环节。
Re-ranking(BERT等重模型)——在初始排序后对候选列表做深度语义分析。BERT理解的是查询和文档之间的语义匹配度,不是文章的文学价值。
Twiddlers(NavBoost、Freshness等)——最后的调整层,用用户行为数据和其他规则做最终排序调整。NavBoost看的是点击率、长点击、短点击、pogo-sticking,全部是用户行为信号。
整条pipeline里,没有一个系统在做”内容鉴赏”。
那Google到底怎么判断”好”和”差”?
用户行为数据。
NavBoost是一个13个月滚动窗口的用户行为反馈系统——这一点在DOJ反垄断案中由Google搜索VP Pandu Nayak在宣誓证词中确认,API Leak进一步揭示了它追踪的具体信号:goodClicks、badClicks、lastLongestClicks。它记录的是:用户点了你的结果之后发生了什么——是正面的点击行为(goodClick),还是迅速返回搜索页重新搜索(pogo-sticking,badClick),还是修改查询词(回搜,说明你没满足需求)。
这些用户行为数据通过Chrome、搜索日志等渠道收集,是Google真正用来区分”好”和”差”的信号。
所以逻辑链不是:
好内容 → 排名
而是:
内容 → 用户行为 → NavBoost信号 → 排名
中间那一环——用户行为——才是关键。你的内容好不好,Google不知道。但用户点不点、留不留、回不回来搜,谷歌能大规模采集到这些行为信号。
为什么这个区分很重要?
因为它直接影响你的SEO策略。
如果你相信”内容质量是排名因素”,你的策略是:花大量时间打磨文章质量,然后等Google来”鉴赏”你的内容。这是被动策略,而且基于一个错误的前提。
如果你理解排名的真正机制,你的策略是:创建能触发正面用户行为信号的内容(让人想点击、想停留、不想回去重新搜),同时建设entity和authority信号(让你的站进入Base索引层、通过Q*的门槛),并通过外部曝光获取真实的用户行为数据和引用链接。
前者是在祈祷,后者是在工程。
AI写还是人写?
顺便回应一个相关的迷思:”AI写的内容会被惩罚”。
不会。上面拆解的整条ranking pipeline里,没有一个环节在检测”这段文字是AI生成的还是人写的”。BM25不关心,Cosine Similarity不关心,NavBoost更不关心——它只看用户行为,用户不会因为文章是AI辅助写的就改变自己的点击和停留行为。
Google官方在2023年2月的Search Central博客中明确表示:AI内容本身不违反其guidelines。他们打击的是scaled content abuse——大规模批量生产低质量内容以操纵排名。这跟”AI写的”是两回事。一个人用AI辅助写出有独特行业经验的文章,和一个人用AI批量生产1000篇模板化的评测文章,在ranking pipeline里会产生完全不同的信号表现。
区别不在于工具,在于输出的内容能不能触发正面的用户行为信号。
需要澄清一点:我不是在支持纯AI内容。用AI直接生成一篇文章然后原样发布,产出的大概率是SERP上已有信息的重新排列组合——没有独特价值,用户看了也不会有任何不同于其他页面的行为反应。我说的是把AI当成辅助工具:你有自己的思考、自己的经验、自己的判断,用AI帮你整理结构、完善表达、扩展论述。核心是你的,AI只是帮你把它更好地呈现出来。这种用法下,最终内容里承载的是你的独特价值,AI只是笔。
“但Google有Helpful Content Update啊,这不就是在判断内容质量吗?”
不是。
HCU(Helpful Content Update)这个名字确实容易让人误解,以为Google在判断内容”有没有帮助”。但从ranking pipeline的机制来看,HCU本质上不是一个内容鉴赏系统。
从API Leak文档和DOJ庭审证词中我们知道,HCU是一个站点级别的classifier。它不是逐篇文章去判断”这篇写得好不好”,而是对整个站点打一个标签——这个站的整体模式是不是符合某些负面特征。
这些负面特征是什么?从被HCU打击的站点案例来看,模式非常清晰:大规模批量生产搜索引擎导向的内容(把每个People Also Ask都做成一个H2)、aggressive的广告密度、内容跟站点核心业务无关(HubSpot写shrug emoji教程)、大量模板化的affiliate评测内容。
这些不是”内容质量差”,而是站点行为模式的问题。根据API Leak泄露文档,HCU classifier可能通过CompressedQualitySignals影响scaledSelectionTierRank——也就是影响你的页面被分配到哪个索引层级。
被放进Landfills之后,你的页面在检索阶段就不会被调出来,用户看不到你,NavBoost数据归零,排名消失。这就是为什么HCU的打击是断崖式的——不是慢慢下降,而是直接从索引层面被过滤掉了。
所以HCU不是在说”你的内容写得不好”,而是在说”你的站点行为模式跟spam/低质量站点太像了”。它是一个站点级别的信任信号,不是内容级别的质量评分。
Shaun Anderson(hobo-web.co.uk)在对数十个HCU受害站点的深度分析中也得出了同样的结论——HCU的核心问题是Entity Health和Trust的缺失,不是某篇文章写得好不好。2024年10月Google邀请了20位受影响的独立站长参加Creator Summit,Google搜索高管Pandu Nayak在会上也承认,这些站长的内容本身没有问题。
所以内容可以乱写?
不可以。
上面说的所有这些,不是在说内容不重要。而是在说内容不是前置排名信号,它是用户行为信号的触发器。
Google不care你的内容好不好。但用户care。
你观察到了行业里别人没注意到的细节?写出来。你有真实的客户案例和一手经验?写出来。你发现了一个常见问题的更好解决方案?写出来。不是因为Google会因此给你加分,而是因为这些东西能让用户停下来、继续往下读、浏览更多页面、甚至发起询盘。
用户打开你的页面,3秒内决定要不要继续看。如果你的内容混乱、没有价值、答非所问,用户会立刻返回搜索页点下一个结果。这个行为被NavBoost记录下来——badClick、pogo-sticking、回搜——全部是负面信号。
反过来,如果用户打开你的页面,找到了他在别处找不到的信息,继续浏览了你的其他页面,甚至发起了询盘,这些行为同样被记录——goodClick、深度浏览、无回搜——全部是正面信号。
所以内容的作用是什么?是为了让用户产生正面的行为信号。 不是为了让Google”鉴赏”你的文字。
你的独特观察、你的一手经验、你的原创数据——这些东西的价值不在于Google能识别它们的”原创性”,而在于它们能让用户获得在其他页面上得不到的体验,从而产生正面的行为信号。
写好内容不是因为Google能评判内容质量,而是因为用户能评判。用户的评判通过行为数据传导给Google,Google再据此调整排名。
因果链是:内容 → 用户反应 → 行为信号 → 排名。内容是起点,但它不是直接的排名因素。它通过用户这个中间环节间接影响排名。
理解了这一点,你的内容策略就不再是”写给Google看”,而是”写给用户看,让用户的行为告诉Google你值得排上去”。
“那我提前把这些都做好了,有什么区别?”
有人会说:我提前把内容质量、原创性、一手数据这些都做好了,等排上去之后用户行为自然就好了,那跟你说的有什么区别?
区别在于:你做好了这些,不会帮你排上去。
在用户行为数据产生之前,决定你能不能被检索到的是两个东西:Relevance(BM25 + Cosine Similarity,你的页面跟查询的相关度)和Authority(Q*、siteAuthority、PageRank,你的站的权威度)。你的”原创性”和”一手数据”不在这两个维度里。
你可以把内容写得再好,如果你的站在SegIndexer里被分到了低层级,Mustang初始排序阶段你就出不来。用户根本看不到你,NavBoost数据就是零。没有用户行为数据,你永远排不上去。
这就是优先级的问题。你应该先解决relevance和authority——让你的页面能被检索到、能出现在用户面前。然后内容的作用才开始发挥——留住用户、产生正面行为信号、巩固排名。
把内容质量当成前置条件,是搞反了因果顺序。内容质量是排上去之后维持排名的因素,不是帮你排上去的因素。帮你排上去的是relevance和authority。
总结
Google不评判内容。它评判用户对内容的反应。
“内容质量”不是一个ranking signal。它是一个可能触发真正ranking signals的手段——仅此而已。
独立Google SEO专家,ylsseo.com创始人,基于Google专利、IR与API Leak解读排名机制,中文SEO启蒙第一人。