<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    什么是Robots協(xié)議?

    作者:四色花 瀏覽:437 發(fā)布時間:2017-12-08
    分享 評論 3

        1Robots.txt存儲位置?


        Robots文件必須換在網(wǎng)站的根目錄下,因為搜索引擎抓取網(wǎng)頁是從根目錄開始,而蜘蛛抓取網(wǎng)站內容時會先檢測Robots文件,按照Robots文件的規(guī)則去抓取網(wǎng)站內容(即要查看其它網(wǎng)站的Robots文件可以直接輸入“域名/robots.txt”就能看到具體內容)。


        2Robots與Nofollow的區(qū)別?


        Robots與Nofollow的本質區(qū)別在于Nofollow只是在當前網(wǎng)頁禁止蜘蛛跟蹤超鏈接,而蜘蛛可能會通過其它路徑抓取到被Nofollow的網(wǎng)頁。而Robots是禁止搜索引擎索引Disallow的網(wǎng)頁。也就是說在搜索引擎可以搜索到Nofollow掉的網(wǎng)頁,但是搜索不到Robots Disallow的網(wǎng)頁。


        3Robots的語法規(guī)則?


        Sitemap指定網(wǎng)站地圖的路徑(即Sitemap: http://www.lincox.cn/sitemap.xml)。User-agent指定具體的搜索引擎蜘蛛(User-agent: *,代表所有搜索引擎、User-agent: Baiduspider指定百度搜索引擎蜘蛛、User-agent:Googlebot指定谷歌搜索引擎蜘蛛)。Allow:是允許抓取的路徑,Disallow:是禁止抓取的路徑。可以使用通配符:Disallow: /*.css$禁止蜘蛛爬取所有css文件(具體可以查看本站的Robots文件)。


        4Robots的運用?


        通過Robots禁止網(wǎng)站后臺登入地址被搜索引擎收錄,避免黑客使用搜索引擎的inulr命令找到網(wǎng)站后臺的登入地址,以提高網(wǎng)站的安全性。同時也可以禁止蜘蛛抓取容量較大的文件,以提高網(wǎng)站的訪問速度


    亚洲AV中文无码字幕色三| 亚洲日韩激情无码一区| 无码AV动漫精品一区二区免费| 潮喷大喷水系列无码久久精品| 精品久久久久中文字幕日本| 人妻无码一区二区三区免费| 最近中文字幕2019高清免费| (愛妃視頻)国产无码中文字幕| 国产色爽免费无码视频| 亚洲色中文字幕无码AV| AV无码免费永久在线观看| 无码人妻久久一区二区三区免费丨 | 亚洲色中文字幕无码AV| 潮喷无码正在播放| 无码人妻品一区二区三区精99| 亚洲精品一级无码中文字幕| 久久精品天天中文字幕人妻 | 精品无码国产一区二区三区51安 | 秋霞鲁丝片Av无码少妇| 亚洲日产无码中文字幕| 亚洲欧美在线一区中文字幕| 人妻丝袜中文无码av影音先锋专区 | 最近中文字幕免费2019| 伊人蕉久中文字幕无码专区| 成人无码免费一区二区三区| 无码AV波多野结衣久久| 精品国产aⅴ无码一区二区| 日本欧美亚洲中文| 日本久久久精品中文字幕| 久久精品人妻中文系列| 无码人妻一区二区三区免费视频| 91精品国产综合久久四虎久久无码一级 | 国产av永久无码天堂影院| 亚洲AV无码国产丝袜在线观看| 亚洲中文久久精品无码| 国产成人精品一区二区三区无码| 国产品无码一区二区三区在线| 亚洲国产日韩欧美在线a乱码日本中文字幕高清 | 五月婷婷无码观看| 亚洲高清无码综合性爱视频| 日韩精品无码人妻一区二区三区 |