芝兰生幽谷
不以无人而不芳

robots.txt的基本写法?

robots.txt需要怎么设置?接下来由成都SEO 猫鼬博客来详细解答:

robots.txt基本的写法:
1.禁止所有搜索引擎抓取网站任何内容:
User-agent:*
Disallow:/

2.允许所有搜索引擎蜘蛛抓取:
robots.txt设置为空文件或:
User-agent:*
Disallow:
或者:
User-agent:*
Allow:/

3.仅禁止某个搜索引擎抓取网站:
User-agent:(搜索引擎蜘蛛名称)
Disallow:/

4.仅允许某个搜索引擎抓取网站:
User-agent:(搜索引擎蜘蛛名称)
Disallow:
User-agent:*
Disallow:/

5.禁止蜘蛛访问某个目录:
User-agent:*
Disallow:/目录名称1/
Disallow:/目录名称2/
Disallow:/目录名称3/

成都SEO 猫鼬博客提醒大家,每个目录需要分开写,而不能写成:Disallow:/目录名称1//目录名称2//目录名称3/,User-agent:*后面的*代表的是any robot,所以不能写为Disallow:/abc/* 和Disallow:*.jpg这样的记录。

搜索引擎蜘蛛,猫鼬博客

常见的搜索引擎蜘蛛名称:
1.百度蜘蛛:Baiduspider(抓取网页)、Baiduspider-image(抓取图片)、Baiduspider-video(抓取视频)、Baiduspider-news(抓取新闻)、Baiduspider-mobile(抓取wap)
2.谷歌蜘蛛:Googlebot
3.360蜘蛛:360Spider
4.SOSO蜘蛛:Sosospider
5.雅虎蜘蛛:Yahoo! Slurp China、Yahoo!
6.搜狗蜘蛛:Sogou News Spider、Sogou web spider、Sogou inst spider、Sogou spider2、Sogou blog、Sogou News Spider、Sogou Orion spider
7.MSN蜘蛛:msnbot、msnbot-media
8.Alexa蜘蛛:ia_archiver
9.有道蜘蛛:YoudaoBot、YodaoBot
9.必应蜘蛛:bingbot

赞(0)
转载请注明出处:猫鼬博客 » robots.txt的基本写法?
分享到: 更多 (0)

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址