[其他]
比较详细的robots.txt协议文件写法
[复制链接]
|
很多建站系统,在建成网站后,都网站根目录,默认有robots.txt协议文件。在网站优化竞争日益加剧的今天,原本设立之初无优化因素的robots.txt文件也被最大化使用,掌握其写法,有备无患。
* f* `' V- i! {, _6 \6 B
9 t& e0 P3 A3 f 一:robots.txt协议文件有什么用?; ~6 k( B, Z( @* P( I) O
7 B& u+ }. o* E+ u
搜索引擎访问一个网站的时候,最先访问的文件就是robots.txt。她告诉搜索引擎蜘蛛,哪些网站页面可以被抓取,哪些禁止抓取。表面来看,这个功能作用有限。从搜索引擎优化的角度来看,可以通过屏蔽页面,达到集中权重的作用,这也是优化人员最为看重的地方。
& @ f/ `+ P0 ?+ r+ G 7 b# y! c8 G* ~9 W
二:网站设置robots.txt的几个原因。8 w J3 t' o9 g+ q$ @8 Z
* z3 n9 A% x. _
1:设置访问权限保护网站安全。1 @4 c! v \% g) ?( d+ l/ {) p1 y
. Y$ [4 ^5 w i1 \& J 2:禁止搜索引擎爬取无效页面,集中权值到主要页面。
' i) H! {. C% V. i$ ]2 Z , ^; R. R+ e# d K: Y
三:怎么用标准写法书写协议?
7 |7 x: Y3 c( H C+ D0 Z+ r! v4 h . B. O: _3 K1 v7 k4 c
有几个概念需掌握。) M" O4 I2 [- A' Z; ^7 Y5 i
* q( _& l, i# N' c0 H2 y
User-agent表示定义哪个搜索引擎,如User-agent:Baiduspider,定义百度蜘蛛。
( K# x+ S* f, G% ^8 m! @; ~
, J0 I; T& _) n9 J Disallow表示禁止访问。( ?6 P$ m! i4 ~% W4 W$ P
9 Z+ m$ Z- w* c. h; Q# ? Allow表示运行访问。
! C6 [8 b% j! G- E, q0 o ( w! d- V& H, G; W' C7 o
通过以上三个命令,可以组合多种写法,允许哪个搜索引擎访问或禁止哪个页面。
4 A5 ], Y' S0 Z% `( l1 c7 E % I" e* S% q$ Y. n: Y. P" R
四:robots.txt文件放在那里?
3 Y, Q! V, c+ c! |$ f8 F- o/ ]# W
# C3 @+ i- }; C0 B% M9 g, \! i 此文件需放置在网站的根目录,且对字母大小有限制,文件名必须为小写字母。所有的命令第一个字母需大写,其余的小写。且命令之后要有一个英文字符空格。% R p9 W9 O5 q
6 ^8 v: }2 K& B( M' O) S% U
五:哪些时候需要使用该协议。. |! ^# H2 e0 c
' o( w( z. r8 t4 c$ @ 1:无用页面,很多网站都有联系我们,用户协议等页面,这些页面相对于搜索引擎优化来讲,作用不大,此时需要使用Disallow命令禁止这些页面被搜索引擎抓取。
1 j8 w# p! P, V' w6 e9 z* S% ?6 i- j# V ; y3 o9 x: G$ E+ D9 ^
2:动态页面,企业类型站点屏蔽动态页面,有利于网站安全。且多个网址访问同一页面,会造成权重分散。因此,一般情况下,屏蔽动态页面,保留静态或伪静态页面。
5 _! G9 M- q" F% e 2 {: x+ U* H$ X4 J9 f8 F
3:网站后台页面,网站后台也可以归类于无用页面,禁止收录有百益而无一害。
. V, s, W% @0 F |
|