这些天美国那边的Pubcon开的正欢,国外众多著名的SEO、SEM专家以及搜索引擎公司代表都聚在洛杉矶。这些天网上也四处传播着各种关于SEO的新技巧和搜索引擎的内部消息,其中有两篇文章非常值得一看:一篇是Vertical Measures博客上记载的50条SEO闲言碎语,都是精辟的SEO技巧总结;另外一篇是SEOmoz的 randfish总结的Matt Cutts在会上透露出来的精华内容,下文会做部分介绍。
Pubcon上的精彩议题会很多,我尽力多收集整理些有价值的文章出来,就都发这篇里了。
一、Matt Cutts不做好人,开始给SEO吹冷风。
Matt Cutts这次在Pubcon上的谈话让SEO圈子又是一阵骚动,随口几句话就让人要死要活,这发言人做的真不错。
1、Blocking Internet Archive may be a Negative Signal
Matt Cutts说他们注意到很多spammer会采取各种措施不让archive.org备份他们的网站内容,一般情况下正常的网站是不会这么干的,所以Matt他们认为这么干的网站有作弊嫌疑。
archive.org被较为网站时光机器或者互联网档案馆,它会定期收录并且永久保存所有网站的可抓取的信息,通过Internet Archive可以查看某个网站的历史情况。
这意思好像是说“不做亏心事,不怕鬼敲门”,想想好像有那么点道理。不过有人就说Matt这么讲话太不负责了,随口一说就打到一片。
2、Web Page Load Time can Positively Influence Rankings
这回Matt重新申明:网页加载速度慢,不会影响Google排名,但是网页加载快却对排名有积极作用。所以,你看着办吧?Pingdom有个工具可以免费帮你测试网页加载速度。
3、It May be Easier to Walk Away from Banned Domains
虽然有些网站被Google或者Yahoo严重降权甚至ban了,但站长会有侥幸心理,好死不如赖活着,也许哪天又活过来了。这回Matt直接打了闷棍,他建议这些站长直接把这域名扔了,别再纠结了,直接换个域名重新干才是识时务。
4、Repetition of Keywords in Internal Anchor Text (particularly in footers) is Troubling
网站内部重复使用关键词作为内链锚文本,一般都是在页面底部,也不是好事情。Matt说这么干的网站也有可能是不怀好意的。这个说法打击很多人,因为这年头网站改版正流行big foot,每个页面的底部都堆着链接。不过是不是关键词链接堆积,还真不容易判断呢。相信Google即使要下手,也会有分寸的。
5、Having Multiple Sites Targeting Subsections of the Same Niche can be Indicative of Spam
Google如果判断出你一个人有多个网站都是涉及到同一个领域的内容的话,那就又上黑名单了。估计Matt说的不只是站群,还得再研究。randfish说,Matt的这个说法透露了Google对域名注册信息有不同寻常的监控办法。我倒是觉得Google有一堆办法获悉你有几个站,我就不信谁用一个google的服务就注册一个帐号,还得每次使用Google搜索的时候不登陆、清缓存。。。
Matt在Pubcon上基本没有干好事,不断给SEO施加压力,一条条的都是在告诉你,小心不要被Google盯上。咖啡因就要来了,Google必然有动作。虽然现在是小心翼翼,一个数据库一个数据库的上,不过肯定会跟03年Florida更新一样,最后有人笑有人哭。做SEO真不容易啊!
文章评论 本文章有个评论