robots.txt基本介绍
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。
当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。
另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。
robots.txt写作语法
首先,来看一个robots.txt范例:http://www.jb200.com/robots.txt
访问以上具体地址,可以看到robots.txt的具体内容:
# robots.txt file from http://www.jb200.com
# all robots will spider the domain
user-agent: *
disallow:
以上文本表达的意思是允许所有的搜索机器人访问www.jb200.com站点下的所有文件。
具体语法分析:其中#后面文字为说明信息;user-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;disallow:后面为不允许访问的文件目录。
列举一些robots.txt的具体用法:
允许所有的robot访问
或者也可以建一个空文件 “/robots.txt” file
禁止所有搜索引擎访问网站的任何部分
禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录)
user-agent: *
disallow: /01/
disallow: /02/
disallow: /03/
禁止某个搜索引擎的访问(下例中的badbot)
user-agent: badbot
disallow: /
只允许某个搜索引擎的访问(下例中的crawler)
user-agent: crawler
disallow:
user-agent: *
disallow: /
另外,我觉得有必要进行拓展说明,对robots meta进行一些介绍:
robots meta标签则主要是针对一个个具体的页面。和其他的meta标签(如使用的语言、页面的描述、关键词等)一样,robots meta标签也是放在页面的<head></head>中,专门用来告诉搜索引擎robots如何抓取该页的内容。
robots meta标签的写法:
robots meta标签中没有大小写之分,name=”robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”baiduspider”。 content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。
index 指令告诉搜索机器人抓取该页面;
follow 指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;
robots meta标签的缺省值是index和follow,只有inktomi除外,对于它,缺省值是index,nofollow。
这样,一共有四种组合:
其中:
目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于robots meta标签,目前支持的并不多,但是正在逐渐增加,如著名搜索引擎google就完全支持,而且google还增加了一个指令“archive”,可以限制google是否保留网页快照。
例如: