对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。
比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢?
我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:
对于普通的筛选结果页,该网站选择使用静态链接,如:http://bj.XXXXX.com/category/zizhucan/weigongcun
同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek
http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c
对于该团购网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过robots规则拒绝提供给搜索引擎。
robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏蔽了低质量页面,为Baiduspider提供了更友好的网站结构,避免了黑洞的形成。
SEO蜘蛛池,一个既熟悉又陌生的词,我们知道搜索引擎网页的收录,完全取决于蜘蛛的爬行与抓取,早期,PC时代,对于百度而言网页的收录速度相对较慢,特别是新网站。很多SEO优化初学者,都在追求百度快速...
做网站优化的进程中很重要的一点,就是网站日志的阐明。通过来访记录的日志文件我们能相识到网站呈现的许多问题。以网站日志上的百度蜘蛛IP为例: 123.125.68.*这个蜘蛛通常来,别的来的少,示意网...
冰冻之心实装要加"物理防止"么?(附来由)冰冻之心实装要加"施放"还。 选择1 物理防止, 冰洁师物防很低。并且许多时候得去近战拼命。尤其远古图很痛复生无意义了。精力高不缺魔防。选择2进攻速度...
排名是硬道理,那么收录就是关键,没有收录绝对是没有排名,那么在收录之前我们要搞清楚百度蜘蛛是怎么来到你网站的,又是如何收录,那么我们今天教大家一招,让百度蜘蛛在你网站迷路! 要想搞清楚百度蜘蛛的...
搜索引擎天天需要处理惩罚大量的页面,纵然是方才进入搜索引擎优化规模的亿万新人,也常常喜欢钻研百度搜索引擎的事情道理,但事实上算法天天都在迭代更新,这就要求我们跟上存眷的官方成长。 一般来说,搜索引擎的...
网络 蜘蛛基本原理 网络蜘蛛即Web Spider,是一个很形象的名字。把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。网络蜘蛛是通过网页的链接地址来寻找网页,从 网站某一个页面...