升级到 hexo3之后一直没注意,今天查看Google WebMaster Tools发现竟然没抓去多少,查看原来的robots.txt, 是这样的:

1
2
3
4
5
6
---
layout: nil
---
User-agent: *
Disallow: 
Sitemap: {{ site.url }}/sitemap.xml 

打开生成的robots.txt查看,竟然没有解析, 竟然是这样的

1
2
3
4
5
6
---
layout: nil
---
User-agent: *
Disallow: 
Sitemap: {{ site.url }}/sitemap.xml

完全没有处理这个文件, 安装hexo-generator-robotstxt, 由于官方的版本只有一个 sitemap,如果要添加 baidusitemap 的话,可以使用我的 fork hexo-generator-robotstxt

1
npm install chenzaichun/hexo-generator-robotstxt --save

修改_config.yml文件,加入

1
2
3
4
5
6
7
8
plugins:
- hexo-generator-robotstxt

robotstxt:
  useragent: "*"
  sitemap:
    - /sitemap.xml
    - /baidusitemap.xml

{%ruby 搞定|无聊 %}