-
网站robots.txt使用中常见的误区
2015-3-19 16:41:37 seo教程 次阅读 查看评论
前几天写了robots.txt的规则误区并介绍百度和Google的robots工具的使用,介绍了几个robots.txt文件的规则的误区,然后发现其实不止那些,还有很多大家没有注意的误区。
今天重新列举一下常见的robots.txt实际使用中的误区:
误区1.Allow包含的范围超过Disallow,并且位置在Disallow前面。
比如有很多人这样写:
User-agent: *
Allow: /
Disallow: /mulu/
想让所有蜘蛛抓取本站除/mulu/下面的url之外的所有页面,禁止抓取/mulu/下面的所有url。
搜索引擎蜘蛛执行的规则是从上到下,这样会造成第二句命令失效。也就是说禁止抓取/mulu/目录这条规则是无效的。正确的是Disallow应该在Allow之上,这样才会生效。
误区2.Disallow命令和Allow命令之后没有以斜杠”/”开头。
这个也很容易被忽视,比如有人这样写Disallow: 123.html ,这种是没有效果的。斜杠”/”表示的是文件对于根目录的位置,如果不带的话,自然无法判断url是哪个,所以是错误的。
正确的应该是Disallow: /123.html,这样才能屏蔽/123.html这个文件,这条规则才能生效。
误区3.屏蔽的目录后没有带斜杠”/”。
也就是比如想屏蔽抓取/mulu/这个目录,有些人这样写Disallow:/mulu。那么这样是否正确呢?
首先这样写(Disallow: /mulu)确实可以屏蔽/mulu/下面的所有url,不过同时也屏蔽了类似/mulu123.html这种开头为/mulu的所有页面,效果等同于Disallow: /mulu*。
正确的做法是,如果只想屏蔽目录,那么必须在结尾带上斜杠”/”。
zhushican原创文章,转载请注明出处! 标签:
相关日志:
- 2022-2-23 22:7:52 选择合适的网站域名对网站将来的发展
- 2022-2-23 21:56:35 什么样的域名适合做地方类的网站的域名呢?
- 2015-12-13 19:47:1 解决地方网站发展瓶颈 流量转化为现实收入
- 2015-12-13 19:45:29 浅析决定网站发展成功与否的四大因素
- 2015-12-13 19:43:38 企业网站应该如何营销
- 2015-11-4 21:13:16 手把手教你玩转excel分析网站日志
- 2015-11-4 21:11:26 网站分析-这里好像有问题
- 2015-10-6 18:1:13 从LOGO设计站谈站长服务类网站的现状和运营
- 2015-10-6 17:54:53 专访一泉钱币交易网叶大钢:特色 让网站更有竞争力
- 2015-9-12 11:19:39 做独立网站和网店的实战营销秘笈
- 控制面板
-
- 最近发表
-
- 网站分类
-
- 搜索
-
- Tags列表
-
- 网站收藏
-
- 图标汇集
-
- 友情链接
-
评论列表: