<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    創建robots.txt注意事項

    作者:數風流人物 瀏覽:263 發布時間:2017-12-12
    分享 評論 0

    一:robots基礎知識


    robots協議(也稱爬蟲協議、機器人協議等),“全稱是網絡爬蟲掃除規范“(Robots Exclusion Protocol),網站經過robots協議告訴搜索引擎哪些頁面能夠抓取,哪些頁面不能夠抓取。


    Robot.txt的效果?


    能夠讓蜘蛛更高效的匍匐網站


    能夠阻撓蜘蛛匍匐動態頁面,從而處理重復錄入的問題


    能夠削減蜘蛛匍匐無效頁面,節約服務器帶寬


    能夠屏蔽搜索引擎屏蔽一些隱私頁面或許臨時頁面


    怎么創立robots.txt文件呢?


    右擊桌面——新建文本文檔——重命名為robots.txt(一切文件有必要小寫)——編寫規矩——用FTP把文件上(放到根目錄下)傳到空間


    創立robots.txt需求留意的知識點:


    1、有必要是txt結束的純文本文件


    2、文件名一切字母有必要是小寫


    3、文件有必要要放在根目錄下


    4、文件內的冒號有必要是英文半角狀態下


    二:robots參數解說


    User-agent


    首要效果:用于描繪搜索引擎蜘蛛的姓名


    舉列:


    1、描繪一切蜘蛛


    User-agent:*


    2、描繪百度蜘蛛


    User-agent:BaiduSpider


    百度:BaiduSpider


    谷歌:Googlebot


    搜狗:Sogou web spider


    好搜:360Spider


    MSN:MSNBot


    有道:YoudaoBot


    宜搜:EasouSpider


    User-agent技巧:


    1、當robots.txt不為空的時分,有必要至少有一條User-adent記載


    2、相同的姓名,只能有一條(例如User-agent:*),可是不同蜘蛛,能夠有多條記載(例如:User-agent:Baiduspider和User-agent:Googlebot)。


    Disallow


    首要效果:用于描繪不答應搜索引擎匍匐和抓取的URL。


    運用技巧:


    1、在robots.txt中至少要有一條Disallow


    2、Disallow記載為空,則表明網站一切頁面都答應被抓取。


    3、運用Disallow,每個目錄有必要獨自分隔聲明


    4、留意Disallow:/abc/(abc目錄底下的目錄不答應抓取,可是目錄底下的html答應抓取)和Disallow:/abc(abc目錄底下的目錄跟html都不答應被抓取)的差異。


    国产亚洲精久久久久久无码AV | 无码专区国产无套粉嫩白浆内射| 精品人体无码一区二区三区| 中文字幕欧美日本亚洲| 无码精品一区二区三区在线| 蜜臀精品无码AV在线播放| A级毛片无码久久精品免费| 毛片一区二区三区无码| 亚洲AV无码精品色午夜果冻不卡 | 亚洲va无码专区国产乱码| 国产午夜片无码区在线播放| 自拍中文精品无码| 亚洲AV中文无码乱人伦下载| 中文字幕无码日韩专区免费| 中文字幕高清有码在线中字| 亚洲成a人片在线观看无码| 99re只有精品8中文| 色噜噜综合亚洲av中文无码 | 好硬~好爽~别进去~动态图, 69式真人无码视频免 | 一本本月无码-| 丰满人妻AV无码一区二区三区| 最近2019年中文字幕6| 少女视频在线观看完整版中文| 亚洲AV无码一区二区三区在线观看| 精品国产一区二区三区无码| 无码精品日韩中文字幕| av无码人妻一区二区三区牛牛| 亚洲中文字幕无码久久2020| 日韩精品无码人妻一区二区三区| 国产成人无码区免费内射一片色欲| 精品久久久无码中文字幕天天| 国产精品无码v在线观看| 国产产无码乱码精品久久鸭| 欧洲人妻丰满av无码久久不卡 | 久久午夜福利无码1000合集| 亚洲AV永久无码精品一区二区| 熟妇人妻无码中文字幕| 亚洲av无码片vr一区二区三区| 日韩精品人妻系列无码专区| 韩国免费a级作爱片无码| 亚洲一区二区三区无码中文字幕|