<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    如何寫robots.txt文件才能集中網站權重

    作者:逐夢網絡 瀏覽:172 發布時間:2017-04-27
    分享 評論 0

    一:什么是robots協議

    robots協議(也稱為爬蟲協議、爬蟲規則、機器人協議等)也就是robots.txt,網站通過robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不希望被抓取。

    ? Robots協議是網站國際互聯網界通行的道德規范,其目的是保護網站數據和敏感信息、確保用戶個人信息和隱私不被侵犯。

    ? 因其不是命令,是一種單方面協議,故需要搜索引擎自覺遵守。

    二:robots.txt放置位置

    robots.txt文件應該放置在網站根目錄下。

    例如,當spider訪問一個網站(比如 http://www.taobao.com)時,首先會檢查該網站中是否存在http://www.taobao.com/robots.txt這個文件,如果 Spider找到這個文件,它就會根據這個文件的內容,來確定它訪問權限的范圍。

    三:robots.txt文件的寫法

    操作步驟:

    1.新建一個文本文檔,命名為robots.txt

    2.開始寫robots

    User-agent: *   (*針對所有搜索引擎)

    Disallow: /     (禁止爬取所有頁面,/代表目錄)

    Disallow: /admin/ (禁止抓取admin目錄)

    Disallow: /admin (禁止抓取包含admin的路徑)

    Allow: /admin/s3.html    (允許抓取admin目錄下s3.html文件)

    一個“/”表示路徑,兩個“/”表示文件夾

    Allow: /admin/php/  (允許抓取admin下面的php文件的所有內容)

    Disallow: /.css$ (禁止抓取所有帶.css的文件)

    sitemap:***

    注意:

    ? 冒號后面有空格,空格后面都有/(都要以/開頭),開頭第一個字母大寫

    ? 因為搜索引擎蜘蛛來抓取網站的時候最先看的就robots文件,我們把網站地圖的地址放到robots協議中有利于搜索引擎蜘蛛的抓取,從而提高網站的收錄。 


    亚洲AV永久无码精品一区二区| 在线欧美天码中文字幕| 我的小后妈中文翻译| 久久久久亚洲?V成人无码| 亚洲欧美日韩另类中文字幕组| 97精品人妻系列无码人妻| 日韩在线中文字幕制服丝袜| 无码国内精品久久人妻麻豆按摩 | 亚洲精品无码你懂的网站| 久久久久亚洲AV无码专区首JN| 中文字幕日韩精品无码内射| 狠狠躁天天躁无码中文字幕图| 国产品无码一区二区三区在线蜜桃 | 天堂亚洲国产中文在线 | 免费无码国产在线观国内自拍中文字幕 | 人妻中文字系列无码专区| 最近中文字幕免费大全| 亚洲一区二区三区在线观看精品中文| 国产精品无码无片在线观看| 亚洲日产无码中文字幕| 中文成人无码精品久久久不卡 | 日本爆乳j罩杯无码视频| 亚洲欧美日韩中文字幕一区二区| 亚洲精品无码你懂的网站| 黑人无码精品又粗又大又长 | 丰满人妻AV无码一区二区三区| 亚洲国产精品无码久久久蜜芽 | 日韩人妻无码中文字幕视频| 亚洲国产精品无码专区| 亚洲av中文无码乱人伦在线播放| 日本无码小泬粉嫩精品图| 无码国产精品一区二区免费式影视 | 18禁裸乳无遮挡啪啪无码免费| 日韩精品久久无码人妻中文字幕| 亚洲啪啪AV无码片| 亚洲情XO亚洲色XO无码| 亚洲AV无码码潮喷在线观看| 亚洲AV无码乱码国产麻豆穿越 | 波多野42部无码喷潮在线| 黄桃AV无码免费一区二区三区 | 中文字幕亚洲码在线|