robots.txt的基本写法?

robots.txt需要怎么设置?接下来由成都SEO 猫鼬博客来详细解答:

robots.txt基本的写法:
1.禁止所有搜索引擎抓取网站任何内容:
User-agent:*
Disallow:/

2.允许所有搜索引擎蜘蛛抓取:
robots.txt设置为空文件或:
User-agent:*
Disallow:
或者:
User-agent:*
Allow:/

3.仅禁止某个搜索引擎抓取网站:
User-agent:(搜索引擎蜘蛛名称)
Disallow:/

4.仅允许某个搜索引擎抓取网站:
User-agent:(搜索引擎蜘蛛名称)
Disallow:
User-agent:*
Disallow:/

5.禁止蜘蛛访问某个目录:
User-agent:*
Disallow:/目录名称1/
Disallow:/目录名称2/
Disallow:/目录名称3/

成都SEO 猫鼬博客提醒大家,每个目录需要分开写,而不能写成:Disallow:/目录名称1//目录名称2//目录名称3/,User-agent:*后面的*代表的是any robot,所以不能写为Disallow:/abc/* 和Disallow:*.jpg这样的记录。

搜索引擎蜘蛛,猫鼬博客

常见的搜索引擎蜘蛛名称:
1.百度蜘蛛:Baiduspider(抓取网页)、Baiduspider-image(抓取图片)、Baiduspider-video(抓取视频)、Baiduspider-news(抓取新闻)、Baiduspider-mobile(抓取wap)
2.谷歌蜘蛛:Googlebot
3.360蜘蛛:360Spider
4.SOSO蜘蛛:Sosospider
5.雅虎蜘蛛:Yahoo! Slurp China、Yahoo!
6.搜狗蜘蛛:Sogou News Spider、Sogou web spider、Sogou inst spider、Sogou spider2、Sogou blog、Sogou News Spider、Sogou Orion spider
7.MSN蜘蛛:msnbot、msnbot-media
8.Alexa蜘蛛:ia_archiver
9.有道蜘蛛:YoudaoBot、YodaoBot
9.必应蜘蛛:bingbot

本文由 猫鼬博客 作者:十八 发表,其版权均为 猫鼬博客 所有,文章内容系作者个人观点,不代表 猫鼬博客 对观点赞同或支持。如需转载,请注明文章来源。
百度已收录

发表评论