<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    網站robots文件的作用介紹及寫法大全

    作者:飛鳥海搏 瀏覽:142 發布時間:2017-12-25
    分享 評論 0

    一個完整的網站,301重定向、404頁面自定義和robots.txt文件都是必有的,沒有為什么,301是為了集權;404是在網站出現死鏈的時候引導蜘蛛以及增加用戶體驗;那robots.txt文件是做什么的呢?它有什么作用呢?


      一、robots文件是什么?


      robots.txt文件是存放在網站根目錄下面的一個TXT文本文檔.它是網站和蜘蛛之間的一個協議.


      二、robots文件有什么作用?


      如果你網站根目錄有robots.txt這樣一個文件,那蜘蛛在爬行你網站的時候就會首先訪問這個文件(robots文件一般都要存放在根目錄,蜘蛛第一個訪問的文件,因此這個文件是很重要的).robots文件的作用是告訴搜索引擎蜘蛛,網站的哪些文件夾可以抓取,哪些文件夾不能抓取,從而確保我們網站的隱私內容不會被收錄.


      三、robots文件怎么寫?


      1.定義搜索引擎


      用User-agent:來定義搜索引擎,其中*表示所有


      百度蜘蛛名字:Baiduspider,谷歌蜘蛛名字:Googlebot.


      User-agent:*表示定義所有蜘蛛


      User-agent: Baiduspider表示自定義百度蜘蛛,


      User-agent: Googlebot表示自定義谷歌蜘蛛


      大家可以參考百度或者淘寶的robots.txt,他么就是這樣寫的,而我們小站只需要自定義所有搜索引擎蜘蛛即可.


      2.禁止訪問和允許訪問


      User-agent: *


      Disallow: /


      表示禁止所有搜索引擎訪問;


      User-agent: *


      Allow: /


      表示允許所有搜索引擎訪問.


      PS:在:后面/前面有一個英文狀態下的空格,空格必須有,必須是英文狀態下的


      3.禁止搜索引擎訪問網站中的某些目錄


      假設a是我網站根目錄的一個文件夾,寫法分別如下:


      User-agent: *


      Disallow: /a


      禁止搜索引擎訪問a文件夾及a文件夾下面的所有文件


      User-agent: *


      Disallow: /a/


      禁止搜索引擎訪問a文件夾下面的所有文件,但是a文件夾是允許被訪問的(這里闡述不太清楚,具體大家可以去百度站長平臺測試)


    中文亚洲AV片在线观看不卡| 人妻丰满熟妞av无码区| 欧洲精品久久久av无码电影| 亚洲一区二区三区在线观看精品中文 | 国产精品多人p群无码| 亚洲国产中文v高清在线观看| 国产成人AV一区二区三区无码| 最新中文字幕在线视频| 无码人妻精品一区二区三区99不卡 | 无码夫の前で人妻を犯す中字 | 久久精品aⅴ无码中文字字幕重口| 久久亚洲AV成人出白浆无码国产 | 国产成人无码一区二区三区在线| 亚洲国产精品无码久久九九 | 无码乱人伦一区二区亚洲| 最近2019年中文字幕6| 亚洲.欧美.中文字幕在线观看| 国产V亚洲V天堂无码| 无码精品人妻一区二区三区漫画| 中文精品99久久国产 | 中文字幕一区二区三区日韩精品| 中文字幕无码免费久久| 久久无码人妻精品一区二区三区| h无码动漫在线观看| 无码人妻黑人中文字幕| 亚洲人成人无码网www电影首页| 最近中文字幕2019视频1| 亚洲激情中文字幕| 在线中文字幕av| 欧美日韩中文字幕2020| 亚洲电影中文字幕| 最近2019中文字幕| 中文字幕本一道先锋影音| 日韩欧美群交P片內射中文| 涩涩色中文综合亚洲| 中文字幕人妻中文AV不卡专区| 午夜成人无码福利免费视频| 免费无码专区毛片高潮喷水 | 最近中文字幕大全免费版在线| 亚洲高清有码中文字| 亚洲VA中文字幕无码毛片|