相信科技改变生活,一个老程序员的闲言碎语。

robots.txt在搜索引擎优化中的妙用

内容简介:这是一篇关于robots.txt妙用,dedecms 的robots txt Disallow: /templets,robot 屏蔽 RSS的文章。可能一般人的观点是robots.txt可写可不写,写错了还有麻烦,所以干脆不写。其实,在搜索引擎优化中,robots.txt有这么几个妙用。

       对于robots.txt,可能一般人的观点是可写可不写,写错了还有麻烦,所以干脆不写。其实,在搜索引擎优化中,robots.txt有这么几个妙用。现在咱们一一来看下robots.txt的妙用。

  1、新站创建的时候引导蜘蛛抓取列表页。新站初建,在你的robots.txt写入网站的栏目地址以便抓取。示例如下

  # http://www.xxxxx.cn/ 网站优化的robots.txt

  user-agent: *

  disallow: /

  disallow: /plus/advancedsearch.php

  disallow: /plus/car.php

  disallow: /plus/carbuyaction.php

  disallow: /plus/shops_buyaction.php

  disallow: /plus/erraddsave.php

  disallow: /plus/posttocar.php

  disallow: /plus/disdls.php

  disallow: /plus/feedback_js.php

  disallow: /plus/mytag_js.php

  disallow: /plus/rss.php

  disallow: /plus/search.php

  disallow: /plus/recommend.php

  disallow: /plus/stow.php

  disallow: /plus/count.php

  disallow: /include

  disallow: /templets

  采用了dedecms默认的robots.txt,个人感觉还是挺不错的。

  2、屏蔽低质量的页面收录。例如,你的一个网页是动态的页面,content.asp,通过参数id来获得不同的内容,而假如你需要增加一个参数style,以便给不同的用户显示不同样式,但是内容相同的页面,那么,对于id为1的同一个内容的页面,可能会出现好几个连接

  content.asp?id=1

  content.asp?id=1&style=red

  content.asp?id=1&style=green

  对于这些连接而言,内容相同,但是连接不同,就可能导致重复内容的出现,在此,你可以通过robots.txt屏蔽重复页面的收录,写法如下

  user-agent: *

  disallow: content.asp?id=*&style=*

  3、无须向各大搜索引擎提交sitemap。 谷歌,微软以及雅虎均已经支持这一robots.txt的扩展写法。所以也省了提交sitemap的时间

  至于robots.txt的具体写法,建议还是参照百度给出的指南,十分详细 http://www.baidu.com/search/robots.html

 

上一篇:如何蜘蛛引导系统地抓取网站

这是一篇关于抓取站点地图,蜘蛛引导程序,蜘蛛抓取系统的文章。谷歌对于rss文件与sitemap也是较为偏爱的,特别是在你有提交谷歌管理员工具的时候,googlebot一般会先读取rss或者sitemap,而后根据列出的地址逐一进行抓取。因此,引

下一篇:论坛如何进行搜索引擎优化

可以说,解决这2个问题,论坛的搜索引擎优化就有希望了,长期以来,论坛难以进行seo的根源,就在于过多参数的动态页面制约了论坛的内容的收录,有价值的页面淹没于众多水贴中无法体现价值,而“互联网论坛收录开放协议”的诞生则可以完美第解决这一点。