如何优化WordPress 的robots.txt文件-robots文件

如何优化WordPress 的robots.txt文件-robots文件

通过用户的反馈我们了解到,大家对优化robots.txt文件的方法和该文件对于SEO的重要性还不是很清楚。所以今天我们准备通过这篇教程为大家介绍一下robots.txt 文件的重要性同时为大家展示如何对该文件进行优化。

一、是否需要一个robots.txt文件?

虽然没有robots.txt文件也不会影响搜索引擎对网站的爬取和索引,但是如果你想要将你的XML网站指南提交给搜索引擎,那么该文件的存在就很有必要了;所以我们强烈建议大家创建一个robots.txt文件。

二、robots.txt文件一般保存在哪里?如何创建robots.txt文件?

Robots.txt文件一般保存在网站的根目录下。要通过FTP客户端连接网站或通过cPanel文件管理器进行查看。该文件跟普通文本文件一样,可以用文本编辑器(比如记事本)打开或编辑。

如果你的网站没有robots.txt文件,那么你可以在电脑上创建一个文本文件并命名为robots.txt,然后上传到网站的根目录下。

三、如何使用robots.txt文件?

该文件的格式很简单。第一行通常是定义一个用户代理的名称,这里的用户代理实际上就是你想要连接的搜索机器人的名称。你也可以使用“*”来指示所有的搜索引擎机器人。从第二行开始,就是允许或禁止搜索的指令,如下述代码:

User-Agent: *

Allow: /wp-content/uploads/

Disallow: /wp-content/plugins/

Disallow: /readme.html

四、优化你的robots.txt文件

1、不需要在robots.txt文件中添加WordPress登陆页面,管理目录,或注册页面,因为这些页面都已经被WordPress添加了noindex标记

2、建议在robots.txt文件中添加禁止爬取 readme.html文件的指令。因为该文件可能被试图了解网站WordPress版本的人所利用。

3、你还可以添加插件目录的禁止指令,这样可以提高网站的安全性。

五、在robots.txt 文件中添加你的XML Sitemap

如果你使用WordPress SEO插件或其他的插件生成的XML Sitemap,那么你的插件会自动尝试在robots.txt文件中添加Sitemap的相关指令。如果添加失败的话,插件会提示你连接你的XML Sitemap,那么你现在需要做的就是添加以下指令到robots.txt文件中。

Sitemap: http://www.example.com/post-sitemap.xml

Sitemap: http://www.example.com/page-sitemap.xml

六、一个合理的robots.txt文件应该是什么样子的?

实话说,许多流行的博客都用着非常简单的robots.txt文件。文件中的内容则取决于网站的特定需求:

User-agent: *

Disallow:

Sitemap: http://www.example.com/post-sitemap.xml

Sitemap: http://www.example.com/page-sitemap.xml

这个robots.txt文件内容提供了网站XML Sitemap的连接,并且指示所有的爬虫索引所有的内容。

这就是本教程的所有内容,希望对大家有所帮助。

推荐阅读