号外:《黑客攻防入门学习课程》现已推出,喜欢的朋友请关注!!!

添加Robots.txt文件优化你的WordPress站点

Seo优化 泰泰 1044℃ 0评论

【前言】

Robots协议(也称为爬虫协议、机器人协议、爬虫规则等)——全称:“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。

搜索引擎机器人访问网站时,首先会寻找站点根目录有没有 robots.txt文件,如果有该文件就根据文件的内容确定收录范围,如果没有就按默认访问以及收录网站所有页面。通常我们都会填写好robots.txt 文件并将其添加至网站的根目录中,从而优化网站的收录结果和权重。

了解Robots协议的作用后,下面来看一下Wordpress为站点提供的默认robots.txt文件内容:
在浏览器中输入:http://你的域名/robots.txt,会显示如下内容:

作用:意思是告诉搜索引擎不要抓取后台程序文件。
注意:该robots.txt文件不真实存在,是Wordpress虚拟出来的,但可以正常访问。
关于 roboots.txt 的书写格式以及作用,可以查看百度的: robots.txt 配置教程

创建规则

显然以上的规则是不完善的,下面给出一个比较完整的robots.txt文件参考内容,也是本站在使用的一个规则:
注: 仅限于Wordpress主题使用…..

在网站的根目录下创建一个robots.txt的文件,并将以下内容粘贴进去即可。

规则作用解释

转载请注明:泰泰博客 » 添加Robots.txt文件优化你的WordPress站点

喜欢 (0)or分享 (0)
发表我的评论
取消评论

表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址(选填)