<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    優化WordPress的robots.txt讓博客更健康

    作者:川藏線。 瀏覽:180 發布時間:2018-01-16
    分享 評論 0

    WordPress目前全球有數千萬用戶,包括獨立博客和博客平臺,且很多人把Wordpress開發成CMS來使用。Wordpress程序的優越性就不用多說了。


    講Wordpress的robots.txt優化之前,先對robots.txt的相關知識普及一下。


    robots.txt是一個存放在網站根目錄下的純文本文件(ASCII編碼),這個文件用于指定spider在您網站上的抓取范圍,一定程度上保護站點的安全和隱私。同時也是網站優化利器,例如屏蔽捉取站點的重復內容頁面。


    robots.txt目前并不是一種標準,只是一種協議!所以現在很多搜索引擎對robots.txt里的指令參數都有不同的看待。


    使用robots.txt需要注意的幾點地方:


    1、指令區分大小寫,忽略未知指令,下圖是本博客的robots.txt文件在Google管理員工具里的測試結果;




    好像還是不支持中文等非英文字符,如需添加中文地址指令,請先轉碼(UTF-8和GBK會有不同的轉碼結果)。


    如果想第一時間知道自己寫的robots.txt是否規范,可以用Google管理員工具的“像 Googlebot 一樣抓取”功能。捉取后,點擊“成功”那個鏈接進去,就可以看到Google眼中的robots.txt了。




    2、每一行代表一個指令,空白和隔行會被忽略;


    3、“#”號后的字符參數會被忽略;


    4、有獨立User-agent的規則,會排除在通配“*”User agent的規則之外;


    5、可以寫入sitemap文件的鏈接,方便搜索引擎蜘蛛爬行整站內容。


    6、盡量少用Allow指令,因為不同的搜索引擎對不同位置的Allow指令會有不同看待。


    想了解更多關于robots.txt的“標準化”說明,可以查看robots.txt官網和Google關于robots.txt的說明頁。


    轉入正題。因為Wordpress建站設置不同的固定鏈接(或者安裝不同的插件),在寫指令的時候,相應的地址會不同。本博客固定鏈接設置為:/a/%post_id%.html,供參考。


    下面開始Wordpress的robots.txt優化之旅,同時請下載本博客的robots.txt邊看邊學優化。


    User-agent: *

    一般博客的robots.txt指令設置都是面對所有spider程序,用通配符“*”即可。如果有獨立User-agent的指令規則,盡量放在通配“*”User agent規則的上方。


    Disallow: /wp-admin/

    Disallow: /wp-content/

    Disallow: /wp-includes/

    屏蔽spider捉取程序文件,同時也節約了搜索引擎蜘蛛資源。


    Disallow: /*/trackback

    每個默認的文章頁面代碼里,都有一段trackback的鏈接,如果不屏蔽讓蜘蛛去捉取,網站會出現重復頁面內容問題。


    Disallow: /feed

    Disallow: /*/feed

    Disallow: /comments/feed

    頭部代碼里的feed鏈接主要是提示瀏覽器用戶可以訂閱本站,而一般的站點都有RSS輸出和網站地圖,故屏蔽搜索引擎捉取這些鏈接,節約蜘蛛資源。


    Disallow: /?s=*

    Disallow: /*/?s=*

    這個就不用解釋了,屏蔽捉取站內搜索結果。站內沒出現這些鏈接不代表站外沒有,如果收錄了會造成和TAG等頁面的內容相近。


    Disallow: /?r=*

    屏蔽留言鏈接插件留下的變形留言鏈接。(沒安裝相關插件當然不用這條指令)


    Disallow: /*.jpg$

    Disallow: /*.jpeg$

    Disallow: /*.gif$

    Disallow: /*.png$

    Disallow: /*.bmp$

    屏蔽捉取任何圖片文件,在這里主要是想節約點寬帶,不同的網站管理員可以按照喜好和需要設置這幾條指令。


    Disallow: /?p=*

    屏蔽捉取短鏈接。默認頭部里的短鏈接,百度等搜索引擎蜘蛛會試圖捉取,雖然最終短鏈接會301重定向到固定鏈接,但這樣依然造成蜘蛛資源的浪費。


    Disallow: /*/comment-page-*

    Disallow: /*?replytocom*

    屏蔽捉取留言信息鏈接。一般不會收錄到這樣的鏈接,但為了節約蜘蛛資源,也屏蔽之。


    Disallow: /a/date/

    Disallow: /a/author/

    Disallow: /a/category/

    Disallow: /?p=*&preview=true

    Disallow: /?page_id=*&preview=true

    Disallow: /wp-login.php


    屏蔽其他的一些形形色色的鏈接,避免造成重復內容和隱私問題。


    Sitemap:http://***.com/sitemap.txt


    網站地圖地址指令,主流是txt和xml格式。告訴搜索引擎網站地圖地址,方便搜索引擎捉取全站內容,當然你可以設置多個地圖地址。要注意的就是Sitemap的S要用大寫,地圖地址也要用絕對地址。


    上面的這些Disallow指令都不是強制要求的,可以按需寫入。也建議站點開通谷歌管理員工具,檢查站點的robots.txt是否規范。


    這些只是筆者的個人經驗,在老鳥面前肯定是班門弄斧了,借站長網把經驗分享出來跟大家一起交流。如站長們有補充或對有任何新的見解,歡迎留言討論。


    亚洲综合无码精品一区二区三区 | 日无码在线观看| 免费A级毛片无码无遮挡内射| 播放亚洲男人永久无码天堂 | 亚洲精品99久久久久中文字幕 | A级毛片无码久久精品免费| 亚洲天堂2017无码中文| 亚洲精品无码午夜福利中文字幕| 日韩国产成人无码av毛片| 免费看成人AA片无码视频羞羞网| 色综合天天综合中文网| 少妇无码太爽了不卡视频在线看| 亚洲va无码手机在线电影| 中文无码喷潮在线播放| 无码人妻精品一区二| 97免费人妻无码视频| 无码人妻精品一区二区三区在线| 中文字幕亚洲无线码| 亚洲综合日韩中文字幕v在线| 中文无码人妻有码人妻中文字幕 | 精品欧洲av无码一区二区14| 欧美日韩中文字幕2020| a中文字幕1区| 中文无码人妻有码人妻中文字幕 | 色噜噜综合亚洲av中文无码| 亚洲精品无码久久久| 国产成人无码久久久精品一| 无码精品视频一区二区三区| 亚洲精品无码成人片久久| 亚洲国产无套无码av电影| 一本加勒比HEZYO无码资源网| 日韩va中文字幕无码电影| 久久精品无码一区二区WWW| 熟妇人妻系列aⅴ无码专区友真希 熟妇人妻系列av无码一区二区 | 亚洲Aⅴ无码一区二区二三区软件 亚洲?V无码乱码国产精品 | 国产麻豆天美果冻无码视频| 成人无码视频97免费| 国产99久久九九精品无码| 精品无码久久久久久国产| 免费无码专区毛片高潮喷水 | 人妻精品久久久久中文字幕69|