百度站长平台:巧用robots避免蜘蛛黑洞

    对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。
           比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢?
           我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:

发布: 2015-03-29 分类: seo教程 阅读: 次 评论: 0次
控制面板
您好,欢迎到访网站!
  [查看权限]
最近发表
网站分类
搜索
最新留言
网站收藏
图标汇集
  • 订阅本站的 RSS 2.0 新闻聚合
Tags列表
友情链接