<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    如何利用robots文件來提高SEO優化效率

    作者:dongky 瀏覽:1748 發布時間:2015-11-02
    編輯 分享 評論 0

    robots機器人想必做SEO行業的人都不陌生,我們在優化網站的時候必須要使用robots來屏蔽不想讓蜘蛛抓取的文件,從而提高蜘蛛的整體 抓取效率,但是有很多SEO同行都不知道如何利用好robots文件,那么今天就說下如何利用robots文件來提高SEO優化的效率!

    百度官方是推薦所有的網站都使用robots文件,以便更好地利用蜘蛛的抓取。其實robots不僅僅是告訴搜索引擎哪些不能抓取,更是網站優化的重要工具之一。

    robots文件實際上就是一個txt文件。其基本的寫法如下:

    User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個通配符

    Disallow: /admin/  這里定義是禁止爬尋admin目錄下面的目錄

    Disallow: /require/ 這里定義是禁止爬尋require目錄下面的目錄

    Disallow:/ABC/   這里定義是禁止爬尋ABC目錄下面的目錄

    Disallow: /cgi-bin/*.htm禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄)。

    Disallow: /*?* 禁止訪問網站中所有的動態頁面

    Disallow: /.jpg$ 禁止抓取網頁所有的.jpg格式的圖片

    Disallow:/ab/adc.html禁止爬取ab文件夾下面的adc.html文件

    Allow: /cgi-bin/這里定義是允許爬尋cgi-bin目錄下面的目錄

    Allow: /tmp這里定義是允許爬尋tmp的整個目錄

    Allow: .htm$ 僅允許訪問以".htm"為后綴的URL

    Allow: .gif$  允許抓取網頁和gif格式圖片。

    在網站優化方面,利用robots文件告訴搜索引擎哪些是重要的內容,不重要的內容均推薦用robots文件來禁止抓取。不重要的內容的典型代表:網站的搜索結果頁面。

    對于靜態網站來說,我們可以利用Disallow: /*?*來禁止動態頁面抓取。但對于動態網站來說,就不能簡單地這樣做了。不過對于動態網站的站長來說,也無需過于擔心,搜索引擎現在可以正常地抓取動態頁面。那么在寫的時候,就要注意了,我們可以具體到搜索文件的名稱來寫。比如你的站是search.asp?后面一大串,那么可以這樣寫:Disallow: /search.asp?*  

    這樣就可以屏蔽搜索結果頁面了,寫好了可以到百度站長平臺檢測robots一下,看看有沒有錯誤!可以輸入網址檢測一下,是不是正常生效了。

    詞條統計

  • 瀏覽次數:1748
  • 編輯次數:0次歷史版本
  • 最近更新:2015-11-02
  • 創建者:dongky
  • 相關詞條

    相關問答

    相關百科

    相關資訊

    夜夜添无码一区二区三区| 曰韩无码AV片免费播放不卡| 天堂√中文最新版在线| 无码AV中文一区二区三区| 中文字幕你懂的| 无码少妇一区二区浪潮av| 人妻丰满熟妇岳AV无码区HD| 中文字幕毛片| 亚洲日本中文字幕区| 精品无码久久久久久久久久 | 午夜亚洲av永久无码精品| 亚洲Av无码专区国产乱码DVD | 无码人妻丝袜在线视频| 中文字幕无码免费久久| 久久精品无码免费不卡| 无码少妇一区二区性色AV| 精品人妻无码区在线视频| 最近最新中文字幕高清免费| 中文一国产一无码一日韩| 精品无码久久久久久久动漫| 国产成人亚洲综合无码精品| 中文精品无码中文字幕无码专区| 久久有码中文字幕| 最新中文字幕在线| 视频二区中文字幕| 精品999久久久久久中文字幕| 人妻无码久久精品| 国产精品va在线观看无码| 精品国产a∨无码一区二区三区| 亚洲Av综合色区无码专区桃色 | 日韩久久久久久中文人妻| 国产精品 中文字幕 亚洲 欧美| 亚洲Av无码国产情品久久| 久久国产三级无码一区二区| 久久国产精品无码网站| 亚洲免费日韩无码系列| 中文字幕无码不卡免费视频| 亚洲毛片av日韩av无码| 欧美日韩中文字幕久久伊人| 最近免费视频中文字幕大全| 无码人妻丰满熟妇区BBBBXXXX |