百度搜索引擎蜘蛛黑洞

对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。 比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢? 我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:

对于普通的筛选结果页面,网站选择使用静态链接。例如,http://bj.XXXXX.com/category/zizhucan/weigongcun也是一个条件筛选结果页面。当用户选择不同的排序条件时,会生成不同参数的动态链接,即使是相同的排序条件(如销量降序排列),生成的参数也会不同。例如http://bj.XXXXX.com/category/zizhucan/weigongcun/hot? MTT = 1 . index % 2 Fpoi . 0 . 0 . i1afqhekhttp://bj。XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

对于这个团购网络来说,搜索引擎抓取筛选结果页面就足够了,而各种带参数的结果排序页面则被robots规则拒绝提供给搜索引擎。robots.txt的文件使用中有这样一个规则:不允许:/*?*,即禁止搜索引擎访问网站中的所有动态页面。这样,网站优先向Baiduspider展示高质量页面,屏蔽低质量页面,从而为Baiduspider提供更友好的网站结构,避免黑洞的形成。