<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    Robots協議-簡介

    作者:Promise.(承諾) 瀏覽:61 發布時間:2017-08-27
    分享 評論 0

        Robots協議(也稱為爬蟲協議、機器人協議等)的全稱是“網絡爬蟲排除標準”(Robots Exclusion Protocol),網站通過Robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取。


        robots.txt文件是一個文本文件,使用任何一個常見的文本編輯器,比如Windows系統自帶的Notepad,就可以創建和編輯它。robots.txt是一個協議,而不是一個命令。robots.txt是搜索引擎中訪問網站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。


        當一個搜索蜘蛛訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內容來確定訪問的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網站上所有沒有被口令保護的頁面。百度官方建議,僅當您的網站包含不希望被搜索引擎收錄的內容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網站上所有內容,請勿建立robots.txt文件。


        如果其他網站鏈接了您robots.txt文件中設置的禁止收錄的網頁,那么這些網頁仍然可能會出現在百度的搜索結果中,但您的網頁上的內容不會被抓取、建入索引和顯示,百度搜索結果中展示的僅是其他網站對您相關網頁的描述。


        robots.txt必須放置在一個站點的根目錄下,文件名必須全部小寫。


    久久无码专区国产精品发布| 最好看的2018中文在线观看| 中文字幕无码不卡在线| 亚洲Av综合色区无码专区桃色| 亚洲AV永久无码天堂影院| 无码人妻品一区二区三区精99| 7国产欧美日韩综合天堂中文久久久久 | 亚洲AV无码不卡在线观看下载| A级毛片无码久久精品免费| 亚洲欧美日韩国产中文| 成 人无码在线视频高清不卡| 亚洲av永久无码精品秋霞电影影院| 亚洲欧美日韩在线中文字幕| 亚洲AV无码一区二区三区国产 | 亚洲日韩精品一区二区三区无码| 日本精品久久久久中文字幕| 亚洲伊人成无码综合网| A∨变态另类天堂无码专区| 无码少妇一区二区性色AV| 高清无码午夜福利在线观看| 日本久久久精品中文字幕| 亚洲中文久久精品无码ww16| 亚洲中文字幕无码专区| 精品无码三级在线观看视频 | 国产啪亚洲国产精品无码| 亚洲av无码乱码国产精品| 一本一道AV无码中文字幕| 国产丝袜无码一区二区三区视频| 五月天中文字幕mv在线女婷婷五月| 久久亚洲中文字幕精品有坂深雪| 日本妇人成熟免费中文字幕| 天堂√中文最新版在线| 欧美 亚洲 有码中文字幕| 中文字幕无码久久久| 无码AⅤ精品一区二区三区| 久久青青草原亚洲av无码| 久久无码av三级| 亚洲AV无码一区二区三区国产| 中文字幕无码一区二区三区本日| 天堂√最新版中文在线| 人妻无码αv中文字幕久久|