核心提示:要创建一个符合或者适应搜索引擎的网站,我们需要先大致了解一下搜索引擎的工作原理。以下搜索引擎均以google为例。
Google使用两个探测器来抓取网站上的内容:Freshbot和Deepbot。深度探测器(Deepbot)每月出击一次,受访内容在Google的主要索引之中。刷新探测器(Freshbot)是持续不断地发现新的内容,例如新的网站、论坛、博客等。看起来,Google是发现了一个新的网页,之后再频繁地再访,来看看是否还有什么新的更新。如果有,这个新网站就会被加入到刷新探测器的名单中进行访问。
刷新探测器取得的结果是汇总在一个单独的数据库里。每一次刷新探测器进行新的一轮循环的时候都被重写。刷新探测器和Google的主要索引是合在一起提供搜索结果的。
Google的操作模式
收集---->采编/索引---->反馈的工作程序。事实上,搜索引擎包括以下几个元素。
·抓取状态:搜索引擎派出探测器到互联网上不知疲倦地搜集网页。
·网页仓库:搜索来的网页要集中在一个地方存储,等候索引处理。
·索引整理:将网页分门别类,进行压缩,等候进行索引编类,而未压缩的原始网页资料被删除掉。
·索引状态:将压缩后的网页编目在不同的索引之下。
·问询状态:将用户问询所用的白话转换成搜索引擎读的懂的计算机语言,来咨询各个索引求得相关答案。
·排名状态:搜索引擎将相关答案根据一定的标准以列表的形式排列给用户。搜索引擎认为最好的答案被推荐在首位,较次的排列随后,以此类推。
SEO是逆向搜索推理
网站首先要知道搜索引擎是怎样判定网站质量的,这个揣度搜索引擎的过程是逆向推理。这个逆向推理是从搜索引擎的搜索排名开始,去探索究竟搜索引擎会将一些网站排列在搜索结果的前列,为什么一些网站连显示的机会都没有。最后推理出的结论是知道搜索引擎判定和排名网站存在着哪些普遍规律,进而知道网站的设计和推广中哪些是应该做的,哪些是不应该做的。
Google的PageRank(PR)
PageRank并非是“页面等级”,而是“佩奇等级”。因为这里的Page指的是Google的创始人之一拉里·佩奇(Larry Page),从名字可以看出有的人天生就是为互联网而存在。
公式
PR(A) = (1-d) + d(PR(Ti)/C(Ti)+...+PR(Tn)/C(Tn))
PR(A):网页A的佩奇等级(PR)
PR(Ti):链接网页A的网页Ti的佩奇等级(PR)。i可以是0-n,n是链接的总数。这个链接可以是来自任何网站的导入链接
C(Ti):网页Ti往其他网站链接的数量(导出链接)
d:阻尼系数,介于0-1之间,Google设为0.85。
可以看出,网页A的PR是由链接它的其他网页Ti所决定的。如果在网页Ti中有一个链接指向网页A,那么A就得到了一个“投票”。但是如果网页Ti中的导出链接如果越多,点击指向A的可能性就越小。所以网页Ti的PR只需要用C(Ti)来加权平均。
当然,决定网站排名的不仅仅是PR值,还有其他的因素。但是PR在google判断网站质量中起着很重要的作用。
文章评论 本文章有个评论