网络营销推广
首页 > 网站搭建 > wordpress教程 > WordPress建站robots.txt文件优化与注意事宜

WordPress建站robots.txt文件优化与注意事宜

作者:蒋元 来源:http://www.jiangyuanblog.com/ 2018-06-21 10:29:49

WordPress建站robots.txt文件优化与注意事宜是由北京网络营销师蒋元与大家分享,介绍关于WordPress开源程序下robots.txt文件优化与注意点,更多有关WordPr'...

  WordPress建站robots.txt文件优化与注意事宜,关于robots.txt文件相信每一个seo优化师都比较熟悉了,关于利用开源程序WordPress来说,robots.txt的优化设置有一些需要注意的,今天我们通过北京网络营销师蒋元与大家一起来了解一下吧!

timg.jpg

  一、使用robots.txt需要注意的几点地方:

  1、指令区分大小写,忽略未知指令,下图是本博客的robots.txt文件在Google管理员工具里的测试结果;

  2、每一行代表一个指令,空白和隔行会被忽略;

  3、“#”号后的字符参数会被忽略;

  4、有独立User-agent的规则,会排除在通配“*”User agent的规则之外;

  5、可以写入sitemap文件的链接,方便搜索引擎蜘蛛爬行整站内容。

  6、尽量少用Allow指令,因为不同的搜索引擎对不同位置的Allow指令会有不同看待。

  二、Wordpress的robots.txt优化设置

  1、User-agent: *

  一般博客的robots.txt指令设置都是面对所有spider程序,用通配符“*”即可。如果有独立User-agent的指令规则,尽量放在通配“*”User agent规则的上方。

  2、Disallow: /wp-admin/

  Disallow: /wp-content/

  Disallow: /wp-includes/

  屏蔽spider捉取程序文件,同时也节约了搜索引擎蜘蛛资源。

  3、Disallow: /*/trackback

  每个默认的文章页面代码里,都有一段trackback的链接,如果不屏蔽让蜘蛛去捉取,网站会出现重复页面内容问题。

  4、Disallow: /feed

  Disallow: /*/feed

  Disallow: /comments/feed

  头部代码里的feed链接主要是提示浏览器用户可以订阅本站,而一般的站点都有RSS输出和网站地图,故屏蔽搜索引擎捉取这些链接,节约蜘蛛资源。

  5、Disallow: /?s=*

  Disallow: /*/?s=*

  这个就不用解释了,屏蔽捉取站内搜索结果。站内没出现这些链接不代表站外没有,如果收录了会造成和TAG等页面的内容相近。

  6、Disallow: /?r=*

  屏蔽留言链接插件留下的变形留言链接。(没安装相关插件当然不用这条指令)

  7、Disallow: /*.jpg$

  Disallow: /*.jpeg$

  Disallow: /*.gif$

  Disallow: /*.png$

  Disallow: /*.bmp$

  屏蔽捉取任何图片文件,在这里主要是想节约点宽带,不同的网站管理员可以按照喜好和需要设置这几条指令。

  8、Disallow: /?p=*

  屏蔽捉取短链接。默认头部里的短链接,百度等搜索引擎蜘蛛会试图捉取,虽然最终短链接会301重定向到固定链接,但这样依然造成蜘蛛资源的浪费。

  9、Disallow: /*/comment-page-*

  Disallow: /*?replytocom*

  屏蔽捉取留言信息链接。一般不会收录到这样的链接,但为了节约蜘蛛资源,也屏蔽之。

  10、Disallow: /a/date/

  Disallow: /a/author/

  Disallow: /a/category/

  Disallow: /?p=*&preview=true

  Disallow: /?page_id=*&preview=true

  Disallow: /wp-login.php

  屏蔽其他的一些形形色色的链接,避免造成重复内容和隐私问题。

  10、Sitemap:http://***.com/sitemap.txt

  网站地图地址指令,主流是txt和xml格式。告诉搜索引擎网站地图地址,方便搜索引擎捉取全站内容,当然你可以设置多个地图地址。要注意的就是Sitemap的S要用大写,地图地址也要用绝对地址。

  上面的这些Disallow指令都不是强制要求的,可以按需写入。也建议站点开通谷歌管理员工具,检查站点的robots.txt是否规范。

  关于WordPress开源程序下的robots.txt文件优化设置就分享到这里,大家如果在使用WordPress开源程序,可以看看自己的robots.txt文件是否可以在优化调整一下呢,更多有关WordPress建站教程的学习,以及有企业网站建设的需求,请关注:蒋元博客。

相关阅读

热点话题
  • 网站css布局中的float布局与position布局对比分析

    网站css布局中的float布局与position布局对比分析

  • 帝国cms后台编辑器如何换百度编辑器

    帝国cms后台编辑器如何换百度编辑器

  • 如何删除ASPCMS自带的默认栏目分类和内容

    如何删除ASPCMS自带的默认栏目分类和内容

  • 全面解密dedecms后台登录不显示验证码或者报错的情况

    全面解密dedecms后台登录不显示验证码或者报错的情况

  • 【wordpress插件】自动压缩png图片

    【wordpress插件】自动压缩png图片

  • WordPress固定链接设置的几种方法

    WordPress固定链接设置的几种方法

今日话题