<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    什么是Robots協議?

    作者:四色花 瀏覽:439 發布時間:2017-12-08
    分享 評論 3

        1Robots.txt存儲位置?


        Robots文件必須換在網站的根目錄下,因為搜索引擎抓取網頁是從根目錄開始,而蜘蛛抓取網站內容時會先檢測Robots文件,按照Robots文件的規則去抓取網站內容(即要查看其它網站的Robots文件可以直接輸入“域名/robots.txt”就能看到具體內容)。


        2Robots與Nofollow的區別?


        Robots與Nofollow的本質區別在于Nofollow只是在當前網頁禁止蜘蛛跟蹤超鏈接,而蜘蛛可能會通過其它路徑抓取到被Nofollow的網頁。而Robots是禁止搜索引擎索引Disallow的網頁。也就是說在搜索引擎可以搜索到Nofollow掉的網頁,但是搜索不到Robots Disallow的網頁。


        3Robots的語法規則?


        Sitemap指定網站地圖的路徑(即Sitemap: http://www.lincox.cn/sitemap.xml)。User-agent指定具體的搜索引擎蜘蛛(User-agent: *,代表所有搜索引擎、User-agent: Baiduspider指定百度搜索引擎蜘蛛、User-agent:Googlebot指定谷歌搜索引擎蜘蛛)。Allow:是允許抓取的路徑,Disallow:是禁止抓取的路徑。可以使用通配符:Disallow: /*.css$禁止蜘蛛爬取所有css文件(具體可以查看本站的Robots文件)。


        4Robots的運用?


        通過Robots禁止網站后臺登入地址被搜索引擎收錄,避免黑客使用搜索引擎的inulr命令找到網站后臺的登入地址,以提高網站的安全性。同時也可以禁止蜘蛛抓取容量較大的文件,以提高網站的訪問速度


    亚洲色中文字幕无码AV| 国产精品中文字幕在线观看| 爆操夜夜操天天操中文| 无码无套少妇毛多18p| 欧美成人中文字幕在线看| 午夜成人无码福利免费视频| 亚洲av永久无码精品表情包| 中文字幕在线视频网| 大地资源中文在线观看免费版| 国产亚洲人成无码网在线观看| 人妻AV中出无码内射| 性色欲网站人妻丰满中文久久不卡| 国产精品无码一区二区三级| 亚洲日韩精品无码专区网址| 久久久网中文字幕| 中文字幕乱码人妻无码久久| 精品无码久久久久久久久久| 久久精品国产亚洲AV无码娇色| 在线观看片免费人成视频无码| 精品久久久久中文字幕一区| 日本阿v视频高清在线中文| 国模无码一区二区三区| 无码AV波多野结衣久久| 最新国产AV无码专区亚洲| 中文字幕日韩第十页在线观看| 中文字幕一区图| а天堂中文在线官网| 精品久久无码中文字幕| 色综合中文综合网| 亚洲中文字幕日产乱码高清app | 日韩精品中文字幕无码一区 | 国产亚洲中文日本不卡二区| 久久青青草原亚洲av无码| 97久久精品无码一区二区| AV无码久久久久不卡蜜桃| 精品久久久无码人妻中文字幕豆芽| 日韩一区二区三区无码影院| 免费A级毛片无码视频| 国产成人无码一区二区三区| 成在人线AV无码免观看麻豆| 西西4444www大胆无码|