避免SEO黑洞 看robots神奇作用(美团网案例)

robots

蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多、内容类同但url不同的动态URL ,就像一个无限循环的“黑洞“,将spider困住。spider浪费了大量资源抓取的却是无效网页。对于百度搜索引擎来说,是极不喜欢的。

百度站长平台推出学院,里面提供了很多有价值的文章,让我们更好地了解SEO和百度官方的一些信息,其中看到一小节:使用robots巧妙避免蜘蛛黑洞,原文如下:

如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分是检索价值低质的页面。如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额,那么该如何避免这种情况呢?

  1. 我们以北京美团网为例,看看美团网是如何利用robots巧妙避免这种蜘蛛黑洞的:
  2. 对于普通的筛选结果页,使用了静态链接,如:
  3. http://bj.meituan.com/category/zizhucan/weigongcun
  4. 同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:http://bj.meituan.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhe khttp://bj.meituan.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

对于美团网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过robots规则拒绝提供给搜索引擎。在robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。美团网恰是通过这种方式,对spider优先展示高质量页面、屏蔽了低质量页面,为spider提供了更友好的网站结构,避免了黑洞的形成。

哎,真是不错,提供了一种很好的方法。像DISCUZ程序对SEO不太友好,虽然伪静态了,但像论坛页,还是出现同一个链接URL同时显示静态和动态的,以 http://www.emk5.com/forum.php 为例,显示的最后发布的文章URL总是动态的,这会导致同一页面有不同的URL,影响SEO整体表现。好了,百度提供的这篇文章范例,能帮助我们更好地了解百度收录,避免SEO黑洞。

附:美团网robots.txt

User-agent: *
Disallow: /static/
Disallow: /deal/buy/
Disallow: /deal/exchanges/
Disallow: /s/
Disallow: /?
Disallow: /*?
Disallow: /deal/consultations/
Disallow: /deal/myconsultation/
Disallow: /deal/dynamic/
Disallow: /deal/sidedeallist/
Disallow: /deal/feedbacklist/
Disallow: /api/v2/

# Sitemap files
Sitemap: http://zhao.meituan.com/attached/sitemap/all.xml

这篇文章对俺有帮助,打赏犒劳下作者吧〜

本文链接:肖运华 » 网站设计制作优化分析 » 避免SEO黑洞 看robots神奇作用(美团网案例)
原创文章,转载请注明:http://www.xiaoyunhua.com/174.html

发表评论

电子邮件地址不会被公开。