众所周知,搜索引擎是靠蜘蛛程序来获取信息的,然后根据一系列的算法来分析网站的权重。那么对蜘蛛程序的友好程度直接决定了网站优化的效果。前文已经讲了蜘蛛采集的前三个属性,也就是标题 描述和关键字。那么接下来我们将做什么样的工作才能更加让蜘蛛喜欢?
首先第一点就是要静态化。现在静态化已经不是什么高深的技术了 大多数cms中已经有了静态化的生成,而在服务器端的也可以设定伪静态。静态化是页面优化的基础。
其次是合理的代码结构。在代码优化方面div强于table这是个不争的事实,系统的div布局可以有效的减少页面文件的大小,使访问的速度加快。那么怎样的布局算是科学合理的呢?
程序方面我不敢说自己是达人,所以这方面我也只能仅就我的理解给大家几点建议:
1)无论是用table还是用div架构网站,尽量减少嵌套的层级关系。
蜘蛛其实很容易迷路,如果道路太多 回环太多 分支太多,那么蜘蛛程序很容易就走不出去 客死异乡。我们是要蜘蛛来逛我们的网站采集信息,而不是用网站来抓住蜘蛛。
2)样式分离。
这一点div很自然的能够做到。我们把样式和内容分离很重要的原因就是为了蜘蛛程序。换句话说就是把蜘蛛喜欢吃的东西和蜘蛛不喜欢吃的东西放在两个篮子里,很多程序为了简单 常常在页面中夹杂一些样式 比如局部的对齐;局部的背景 就直接写在页面代码中 这些都是不好的编写网页的习惯。
3)完善alt属性,减少flah,js等。
alt属性是图片的描述属性,网站在美化的过程中图片自然是很多。这时候就要有计划的有系统的布局alt属性 可以完全相同 也可以局部有侧重点,也可以设置长尾。 另外蜘蛛程序对falsh js等并不感冒 在功能允许的情况下尽量少用吧。
以上就是我谈到的一些在页面代码优化方面的基础问题,如有谈的不准确的地方 希望大家斧正。
文章评论 本文章有个评论