<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    如何寫robots.txt文件才能集中網站權重

    作者:逐夢網絡 瀏覽:172 發布時間:2017-04-27
    分享 評論 0

    一:什么是robots協議

    robots協議(也稱為爬蟲協議、爬蟲規則、機器人協議等)也就是robots.txt,網站通過robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不希望被抓取。

    ? Robots協議是網站國際互聯網界通行的道德規范,其目的是保護網站數據和敏感信息、確保用戶個人信息和隱私不被侵犯。

    ? 因其不是命令,是一種單方面協議,故需要搜索引擎自覺遵守。

    二:robots.txt放置位置

    robots.txt文件應該放置在網站根目錄下。

    例如,當spider訪問一個網站(比如 http://www.taobao.com)時,首先會檢查該網站中是否存在http://www.taobao.com/robots.txt這個文件,如果 Spider找到這個文件,它就會根據這個文件的內容,來確定它訪問權限的范圍。

    三:robots.txt文件的寫法

    操作步驟:

    1.新建一個文本文檔,命名為robots.txt

    2.開始寫robots

    User-agent: *   (*針對所有搜索引擎)

    Disallow: /     (禁止爬取所有頁面,/代表目錄)

    Disallow: /admin/ (禁止抓取admin目錄)

    Disallow: /admin (禁止抓取包含admin的路徑)

    Allow: /admin/s3.html    (允許抓取admin目錄下s3.html文件)

    一個“/”表示路徑,兩個“/”表示文件夾

    Allow: /admin/php/  (允許抓取admin下面的php文件的所有內容)

    Disallow: /.css$ (禁止抓取所有帶.css的文件)

    sitemap:***

    注意:

    ? 冒號后面有空格,空格后面都有/(都要以/開頭),開頭第一個字母大寫

    ? 因為搜索引擎蜘蛛來抓取網站的時候最先看的就robots文件,我們把網站地圖的地址放到robots協議中有利于搜索引擎蜘蛛的抓取,從而提高網站的收錄。 


    AV无码人妻中文字幕| A级毛片无码久久精品免费| 性无码一区二区三区在线观看| 中文字幕丰满乱子无码视频| 亚洲A∨无码一区二区三区 | 亚洲AV成人无码久久精品老人| 免费在线中文日本| 精品无码久久久久久久动漫| 亚洲Av无码精品色午夜 | 蜜桃AV无码免费看永久| 中文字幕精品亚洲无线码一区| 精品成在人线AV无码免费看| 色婷婷久久综合中文久久一本| 婷婷色中文字幕综合在线| 99久久人妻无码精品系列蜜桃| 无码少妇精品一区二区免费动态| 蜜桃AV无码免费看永久| 无码乱肉视频免费大全合集| 久久精品中文闷骚内射| 中文字幕精品无码一区二区三区 | 亚洲AV永久无码天堂影院| 国产精品亚韩精品无码a在线| 无码人妻精品一区二区三区东京热| 中文字幕无码不卡免费视频| 乱人伦中文字幕在线看| 久久婷婷综合中文字幕| 国产中文欧美日韩在线| 中文字幕日本高清| 最近中文字幕免费2019| 精品久久久久久中文字幕| 免费A级毛片无码A∨中文字幕下载| 伊人久久大香线蕉无码麻豆| 亚洲欧美综合中文| 无码内射中文字幕岛国片| 天堂中文在线资源| xx中文字幕乱偷avxx| 日韩av无码免费播放| 野花在线无码视频在线播放| 亚洲AV永久无码精品| 免费A级毛片无码A∨中文字幕下载| 免费A级毛片无码视频|