<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    網(wǎng)站robots文件的作用介紹及寫法大全

    作者:飛鳥海搏 瀏覽:139 發(fā)布時間:2017-12-25
    分享 評論 0

     一個完整的網(wǎng)站,301重定向、404頁面自定義和robots.txt文件都是必有的,沒有為什么,301是為了集權(quán);404是在網(wǎng)站出現(xiàn)死鏈的時候引導(dǎo)蜘蛛以及增加用戶體驗;那robots.txt文件是做什么的呢?它有什么作用呢?


      一、robots文件是什么?


      robots.txt文件是存放在網(wǎng)站根目錄下面的一個TXT文本文檔.它是網(wǎng)站和蜘蛛之間的一個協(xié)議.


      二、robots文件有什么作用?


      如果你網(wǎng)站根目錄有robots.txt這樣一個文件,那蜘蛛在爬行你網(wǎng)站的時候就會首先訪問這個文件(robots文件一般都要存放在根目錄,蜘蛛第一個訪問的文件,因此這個文件是很重要的).robots文件的作用是告訴搜索引擎蜘蛛,網(wǎng)站的哪些文件夾可以抓取,哪些文件夾不能抓取,從而確保我們網(wǎng)站的隱私內(nèi)容不會被收錄.


      三、robots文件怎么寫?


      1.定義搜索引擎


      用User-agent:來定義搜索引擎,其中*表示所有


      百度蜘蛛名字:Baiduspider,谷歌蜘蛛名字:Googlebot.


      User-agent:*表示定義所有蜘蛛


      User-agent: Baiduspider表示自定義百度蜘蛛,


      User-agent: Googlebot表示自定義谷歌蜘蛛


      大家可以參考百度或者淘寶的robots.txt,他么就是這樣寫的,而我們小站只需要自定義所有搜索引擎蜘蛛即可.


      2.禁止訪問和允許訪問


      User-agent: *


      Disallow: /


      表示禁止所有搜索引擎訪問;


      User-agent: *


      Allow: /


      表示允許所有搜索引擎訪問.


      PS:在:后面/前面有一個英文狀態(tài)下的空格,空格必須有,必須是英文狀態(tài)下的


      3.禁止搜索引擎訪問網(wǎng)站中的某些目錄


      假設(shè)a是我網(wǎng)站根目錄的一個文件夾,寫法分別如下:


      User-agent: *


      Disallow: /a


      禁止搜索引擎訪問a文件夾及a文件夾下面的所有文件


    亚洲午夜无码片在线观看影院猛| 亚洲一区二区三区无码中文字幕 | 制服中文字幕一区二区| 韩国免费a级作爱片无码| 久久中文字幕人妻丝袜| 黄桃AV无码免费一区二区三区| 中文字幕永久一区二区三区在线观看 | 中文字幕精品一区二区日本| 99国产精品无码| 亚洲AV无码国产在丝袜线观看| 国产欧美日韩中文字幕| 中文字幕在线亚洲精品| 精品深夜AV无码一区二区| 伊人久久无码中文字幕 | 中文字幕无码精品三级在线电影| 暖暖免费在线中文日本| 精品久久亚洲中文无码| 亚洲永久无码3D动漫一区| 精品中文高清欧美| 一本大道久久东京热无码AV| 亚洲AV日韩AV高潮无码专区| 亚洲日本va午夜中文字幕久久 | 国产激情无码一区二区三区| 无码国产精品一区二区免费3p| 熟妇人妻系列av无码一区二区| 中文字幕在线资源| 中文精品久久久久国产网址| 婷婷色中文字幕综合在线 | 在人线AV无码免费高潮喷水 | 亚洲精品无码永久在线观看你懂的| 亚洲国产综合精品中文字幕 | 最近的2019免费中文字幕| 91在线中文字幕| 亚洲欧美中文字幕| 婷婷五月六月激情综合色中文字幕| 成人精品一区二区三区中文字幕| 91中文字幕在线观看| 娇小性色xxxxx中文| 最近2018中文字幕在线高清下载| 精选观看中文字幕高清无码| 精品亚洲成A人无码成A在线观看|