承接百度SEO优化白帽排名业务

robots文件怎么写,怎么写好robots.txt

2019-08-28 铭立SEO
robots文件怎么写,怎么写好robots.txt

robots文件是一个重要的文件,如果写不好,可能会影响到网站的收录量。因为当蜘蛛作为一个普通的浏览者光临网站时,第一个就看查看robots文件。

搜索引擎为何会这样做呢?

主要为了友好,蜘蛛不请自来,总得关注一下网站的意见吧。如果站长做好robots文件,这是一个相互默契的表现。

因此每个网站都应该写好robots文件。否则在服务器上记录404错误。

robots文件是一个纯文件文件,脚本为.txt。可以使用电脑记事本就可做。

robots文件写法:

1、User-agent

该项的值用于描述搜索引擎蜘蛛的名字。如果该项的值设为*,则该协议对任何机器人均有效。

2、Disallow: 

该项的值用于描述不希望被访问到的一个URL,一个目录或者整个网站。以Disallow 开头的URL 均不会被搜索引擎蜘蛛访问到。任何一条Disallow 记录为空,说明该网站的所有部分都允许被访问。

例子说明:

1、网站目录下所有文件均能被所有搜索引擎蜘蛛访问:

User-agent: *

Disallow:

2、禁止所有搜索引擎蜘蛛访问网站的任何部分

User-agent: *

Disallow: /

3、禁止所有的搜索引擎蜘蛛访问网站的几个目录

User-agent: *

Disallow: /a/

Disallow: /b/

4、只允许某个搜索引擎蜘蛛访问

User-agent: baiduspider

Disallow:

©CopyRight WWW.MINGLIPLUS.COM Inc All Rights Reserved.