遇见SEO
关注互联网营销技术

如何利用Robots.txt优化WordPress站点

很多人对robots.txt文件的作用不太清楚,这里给大家介绍普及WordPress网站robots.txt文件的知识。

Robots协议(也称为爬虫协议、机器人协议等)的全称是“机器人排除协议”。通过Robots协议,网站告诉搜索引擎哪些页面是可以抓取的,哪些页面不能抓取。

如何利用Robots.txt优化WordPress站点
 

当搜索引擎机器人访问该网站时,它会首先查找该网站没有robots.txt文件的根目录。如果有这个文件,它会根据文件的内容来确定包含的范围。如果没有默认访问和包含所有页面。此外,当搜索蜘蛛发现没有robots.txt文件时,它会在服务器上生成一个404错误日志,从而增加服务器的负担,所以为站点添加robots.txt文件是很重要的。

了解了Robots的角色协议,下面具体谈谈WordPress网站如何编写Robots .txt文件。

WordPress站点默认是在浏览器中输入:http://你的域名/robots.txt。它将显示以下内容:

User-agent: *Disallow: /wp-admin/Disallow: /wp-includes/

这是WordPress自动生成的,并告诉搜索引擎不要获取守护程序文件。

但这还远远不够,更完整的WordPress站点robots.txt文件内容如下:

User-agent: *Disallow: /wp-admin/Disallow: /wp-content/Disallow: /wp-includes/Disallow: /*/comment-page-*Disallow: /*?replytocom=*Disallow: /category/*/page/Disallow: /tag/*/page/Disallow: /*/trackbackDisallow: /feedDisallow: /*/feedDisallow: /comments/feedDisallow: /?s=*Disallow: /*/?s=*Disallow: /*?*Disallow: /attachment/

用法:创建一个名为robots.txt,把上面的内容放进去,然后上传到网站的根目录。

各项目的功能如下:

1、Disallow: /wp-admin/、Disallow: /wp-content/和Disallow: /wp-includes/

用于告诉搜索引擎不要抓取后台程序文件页面。

2、Disallow: /*/comment-page-*和Disallow: /*?replytocom=*

禁止搜索引擎抓取评论分页等相关链接。

3、Disallow: /category/*/page/和Disallow: /tag/*/page/

禁止搜索引擎抓取收录分类和标签的分页。

4、Disallow: /*/trackback

禁止搜索引擎抓取收录trackback等垃圾信息

5、Disallow: /feed、Disallow: /*/feed和Disallow: /comments/feed

禁止搜索引擎抓取收录feed链接,feed只用于订阅本站,与搜索引擎无关。

6、Disallow: /?s=*和Disallow: /*/?s=*

禁止搜索引擎抓取站内搜索结果

7、Disallow: /*?*

禁止搜索抓取动态页面

8、Disallow: /attachment/

禁止搜索引擎抓取附件页面,比如毫无意义的图片附件页面。

赞(0)
如需转载请注明出处:遇见seo » 如何利用Robots.txt优化WordPress站点