<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    網站robots文件的作用介紹及寫法大全

    作者:飛鳥海搏 瀏覽:139 發布時間:2017-12-25
    分享 評論 0

     一個完整的網站,301重定向、404頁面自定義和robots.txt文件都是必有的,沒有為什么,301是為了集權;404是在網站出現死鏈的時候引導蜘蛛以及增加用戶體驗;那robots.txt文件是做什么的呢?它有什么作用呢?


      一、robots文件是什么?


      robots.txt文件是存放在網站根目錄下面的一個TXT文本文檔.它是網站和蜘蛛之間的一個協議.


      二、robots文件有什么作用?


      如果你網站根目錄有robots.txt這樣一個文件,那蜘蛛在爬行你網站的時候就會首先訪問這個文件(robots文件一般都要存放在根目錄,蜘蛛第一個訪問的文件,因此這個文件是很重要的).robots文件的作用是告訴搜索引擎蜘蛛,網站的哪些文件夾可以抓取,哪些文件夾不能抓取,從而確保我們網站的隱私內容不會被收錄.


      三、robots文件怎么寫?


      1.定義搜索引擎


      用User-agent:來定義搜索引擎,其中*表示所有


      百度蜘蛛名字:Baiduspider,谷歌蜘蛛名字:Googlebot.


      User-agent:*表示定義所有蜘蛛


      User-agent: Baiduspider表示自定義百度蜘蛛,


      User-agent: Googlebot表示自定義谷歌蜘蛛


      大家可以參考百度或者淘寶的robots.txt,他么就是這樣寫的,而我們小站只需要自定義所有搜索引擎蜘蛛即可.


      2.禁止訪問和允許訪問


      User-agent: *


      Disallow: /


      表示禁止所有搜索引擎訪問;


      User-agent: *


      Allow: /


      表示允許所有搜索引擎訪問.


      PS:在:后面/前面有一個英文狀態下的空格,空格必須有,必須是英文狀態下的


      3.禁止搜索引擎訪問網站中的某些目錄


      假設a是我網站根目錄的一個文件夾,寫法分別如下:


      User-agent: *


      Disallow: /a


      禁止搜索引擎訪問a文件夾及a文件夾下面的所有文件


    最近最新中文字幕完整版| 亚洲av永久无码精品表情包| 亚洲AV无码一区二区乱子伦| 中文字幕aⅴ人妻一区二区 | 欧美日韩中文字幕2020| 国产精品va无码一区二区| 极品粉嫩嫩模大尺度无码视频| 亚洲.欧美.中文字幕在线观看| 精品无码人妻一区二区三区品| 中文字幕乱码免费看电影| 永久无码精品三区在线4| 国产成人精品无码片区在线观看 | 亚洲AV无码一区二区乱子伦| 一二三四在线播放免费观看中文版视频 | 免费A级毛片无码A∨中文字幕下载| 国产成人无码18禁午夜福利p| 无码专区久久综合久中文字幕 | 亚洲日韩乱码中文无码蜜桃臀网站| 最近免费中文字幕高清大全| 中文人妻av高清一区二区| 亚洲成?v人片天堂网无码| 亚洲AV无码乱码精品国产| 蜜桃视频无码区在线观看| 99精品一区二区三区无码吞精| 无码成A毛片免费| 日日摸日日踫夜夜爽无码| 亚洲国产成人精品无码区在线观看 | 国产精品无码不卡一区二区三区 | 国产激情无码一区二区app| 精品三级AV无码一区| 日韩一区二区三区无码影院| 人妻丰满熟妇av无码区不卡| 四虎成人精品无码| 精品久久久久久无码中文字幕一区| 欧洲成人午夜精品无码区久久| 色AV永久无码影院AV| 91精品无码久久久久久五月天| 精品亚洲成α人无码成α在线观看 | 欧美日韩国产中文精品字幕自在自线 | 精品无码久久久久国产动漫3d| 久久久久精品国产亚洲AV无码|