<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    網站robots文件的作用介紹及寫法大全

    作者:飛鳥海搏 瀏覽:143 發布時間:2017-12-25
    分享 評論 0

    一個完整的網站,301重定向、404頁面自定義和robots.txt文件都是必有的,沒有為什么,301是為了集權;404是在網站出現死鏈的時候引導蜘蛛以及增加用戶體驗;那robots.txt文件是做什么的呢?它有什么作用呢?


      一、robots文件是什么?


      robots.txt文件是存放在網站根目錄下面的一個TXT文本文檔.它是網站和蜘蛛之間的一個協議.


      二、robots文件有什么作用?


      如果你網站根目錄有robots.txt這樣一個文件,那蜘蛛在爬行你網站的時候就會首先訪問這個文件(robots文件一般都要存放在根目錄,蜘蛛第一個訪問的文件,因此這個文件是很重要的).robots文件的作用是告訴搜索引擎蜘蛛,網站的哪些文件夾可以抓取,哪些文件夾不能抓取,從而確保我們網站的隱私內容不會被收錄.


      三、robots文件怎么寫?


      1.定義搜索引擎


      用User-agent:來定義搜索引擎,其中*表示所有


      百度蜘蛛名字:Baiduspider,谷歌蜘蛛名字:Googlebot.


      User-agent:*表示定義所有蜘蛛


      User-agent: Baiduspider表示自定義百度蜘蛛,


      User-agent: Googlebot表示自定義谷歌蜘蛛


      大家可以參考百度或者淘寶的robots.txt,他么就是這樣寫的,而我們小站只需要自定義所有搜索引擎蜘蛛即可.


      2.禁止訪問和允許訪問


      User-agent: *


      Disallow: /


      表示禁止所有搜索引擎訪問;


      User-agent: *


      Allow: /


      表示允許所有搜索引擎訪問.


      PS:在:后面/前面有一個英文狀態下的空格,空格必須有,必須是英文狀態下的


      3.禁止搜索引擎訪問網站中的某些目錄


      假設a是我網站根目錄的一個文件夾,寫法分別如下:


      User-agent: *


      Disallow: /a


      禁止搜索引擎訪問a文件夾及a文件夾下面的所有文件


      User-agent: *


      Disallow: /a/


      禁止搜索引擎訪問a文件夾下面的所有文件,但是a文件夾是允許被訪問的(這里闡述不太清楚,具體大家可以去百度站長平臺測試)


    无码精品人妻一区| 午夜不卡无码中文字幕影院| 无码人妻丰满熟妇精品区| 免费无码中文字幕A级毛片| 日韩精品真人荷官无码| 最近中文2019字幕第二页| 中文字幕无码不卡免费视频| 精品无码久久久久久尤物| 中文字幕日韩欧美| 日韩中文字幕电影| 中文字幕无码不卡在线| 日韩精品真人荷官无码| 亚洲国产精品无码久久98| 最好看的中文字幕2019免费| 一级片无码中文字幕乱伦| 国产乱子伦精品无码码专区| 亚洲av中文无码乱人伦在线r▽| 久久伊人中文无码| 国产一区二区中文字幕| 中文成人无字幕乱码精品区| 日韩专区无码人妻| 成人无码区免费A∨直播| 久久久无码人妻精品无码| 亚洲av无码一区二区三区在线播放 | 国产成人无码一区二区三区| 亚洲2022国产成人精品无码区| 三上悠亚ssⅰn939无码播放| 欧美日韩亚洲中文字幕二区| 中文字幕视频免费| 中文字幕高清在线| 乱人伦中文字幕在线看| 亚洲一区中文字幕久久| 中文字幕日韩精品无码内射| 中文亚洲AV片不卡在线观看| 亚洲中文字幕在线观看| 人妻精品久久久久中文字幕一冢本| 无码人妻少妇久久中文字幕蜜桃| 精品人妻va出轨中文字幕| 中文字幕精品一区二区日本| 亚洲欧洲中文日韩av乱码| 成年无码av片完整版|