<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    如何寫robots.txt文件才能集中網站權重

    作者:逐夢網絡 瀏覽:172 發布時間:2017-04-27
    分享 評論 0

    一:什么是robots協議

    robots協議(也稱為爬蟲協議、爬蟲規則、機器人協議等)也就是robots.txt,網站通過robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不希望被抓取。

    ? Robots協議是網站國際互聯網界通行的道德規范,其目的是保護網站數據和敏感信息、確保用戶個人信息和隱私不被侵犯。

    ? 因其不是命令,是一種單方面協議,故需要搜索引擎自覺遵守。

    二:robots.txt放置位置

    robots.txt文件應該放置在網站根目錄下。

    例如,當spider訪問一個網站(比如 http://www.taobao.com)時,首先會檢查該網站中是否存在http://www.taobao.com/robots.txt這個文件,如果 Spider找到這個文件,它就會根據這個文件的內容,來確定它訪問權限的范圍。

    三:robots.txt文件的寫法

    操作步驟:

    1.新建一個文本文檔,命名為robots.txt

    2.開始寫robots

    User-agent: *   (*針對所有搜索引擎)

    Disallow: /     (禁止爬取所有頁面,/代表目錄)

    Disallow: /admin/ (禁止抓取admin目錄)

    Disallow: /admin (禁止抓取包含admin的路徑)

    Allow: /admin/s3.html    (允許抓取admin目錄下s3.html文件)

    一個“/”表示路徑,兩個“/”表示文件夾

    Allow: /admin/php/  (允許抓取admin下面的php文件的所有內容)

    Disallow: /.css$ (禁止抓取所有帶.css的文件)

    sitemap:***

    注意:

    ? 冒號后面有空格,空格后面都有/(都要以/開頭),開頭第一個字母大寫

    ? 因為搜索引擎蜘蛛來抓取網站的時候最先看的就robots文件,我們把網站地圖的地址放到robots協議中有利于搜索引擎蜘蛛的抓取,從而提高網站的收錄。 


    国产激情无码一区二区三区| 色噜噜亚洲精品中文字幕| 中文有无人妻vs无码人妻激烈| 在线中文字幕精品第5页| 亚洲高清无码在线观看| 日韩乱码人妻无码系列中文字幕| 国产成人三级经典中文| 久久久久久无码国产精品中文字幕| 一本大道东京热无码一区| 中文字幕在线免费观看| 亚洲色偷拍区另类无码专区| 男人的天堂无码动漫AV| 亚洲午夜国产精品无码| 免费中文字幕视频| 精品久久无码中文字幕| 亚洲美日韩Av中文字幕无码久久久妻妇| 日韩人妻无码精品久久久不卡 | 免费A级毛片无码A∨| 中文字幕一区二区免费| 狠狠综合久久综合中文88 | 日本中文字幕在线电影| 久久久久成人精品无码中文字幕| 在线观看免费无码视频| 日韩精选无码| 无码精品人妻一区二区三区免费 | 狠狠躁狠狠躁东京热无码专区| 中文人妻无码一区二区三区| 日韩精品无码免费专区午夜不卡| 最近中文字幕完整免费视频ww| 最近高清中文字幕免费| 最近免费中文字幕mv在线电影| 在线天堂中文在线资源网| 中文精品久久久久国产网址| 久久精品中文字幕一区| 中文字幕永久一区二区三区在线观看| 久久精品一区二区三区中文字幕| 亚洲成A人片在线观看中文| 少妇性饥渴无码A区免费| 亚洲看片无码在线视频| 伊人久久精品无码二区麻豆| 无码国内精品久久人妻蜜桃|