<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    如何和搜索引擎爬蟲對話

    作者:微笑 瀏覽:258 發布時間:2018-05-08
    分享 評論 0

    抓取策略:那些網頁是我們需要去下載的,那些是無需下載的,那些網頁是我們優先下載的,定義清楚之后,能節省很多無謂的爬取。更新策略:監控列表頁來發現新的頁面;定期check 頁面是否過期等等。抽取策略:我們應該如何的從網頁中抽取我們想要的內容,不僅僅包含最終的目標內容,還有下一步要抓取的url.抓取頻率:我們需要合理的去下載一個網站,卻又不失效率。


    讓我對“如何和爬蟲對話 ”這個課題有了一些思考,下面歸納的主要用于迎合上面提到的爬蟲“抓取策略”。


    1、通過 robots.txt 和爬蟲對話:搜索引擎發現一個新站,原則上第一個訪問的就是 robots.txt 文件,可以通過 allow/disallow 語法告訴搜索引擎那些文件目錄可以被抓取和不可以被抓取。


    關于 robots.txt 的詳細介紹:about /robots.txt另外需要注意的是:allow/disallow 語法的順序是有區別的


    2、通過 meta tag 和爬蟲對話:比如有的時候我們希望網站列表頁不被搜索引擎收錄但是又希望搜索引擎抓取,那么可以通過 <meta name=“robots” content=“noindex,follow”> 告訴爬蟲,其他常見的還有 noarchive,nosnippet,noodp 等。


    3、通過 rel=“nofollow” 和爬蟲對話:關于 rel=“nofollow” 最近國平寫了一篇文章《如何用好 nofollow》很值得一讀,相信讀完之后你會有很大的啟發。


    4、通過 rel=“canonical” 和爬蟲對話:關于 rel=“canonical” 谷歌網站站長工具幫助有很詳細的介紹:深入了解 rel=“canonical”


    5、通過網站地圖和爬蟲對話:比較常見的是 xml 格式 sitemap 和 html 格式 sitemap,xml 格式 sitemap 可以分割處理或者壓縮壓縮,另外,sitemap 的地址可以寫入到 robots.txt 文件。


    6、通過網站管理員工具和搜索引擎對話:我們接觸最多的就是谷歌網站管理員工具,可以設定 googlebot 抓取的頻率,屏蔽不想被抓取的鏈接,控制 sitelinks 等,另外,Bing 和 Yahoo 也都有管理員工具,百度有一個百度站長平臺,內測一年多了仍舊在內測,沒有邀請碼無法注冊。


    另外,這里面還衍生出一個概念,就是我一直比較重視的網站收錄比,所謂網站收錄比=網站在搜索引擎的收錄數/網站真實數據量,網站收錄比越高,說明搜索引擎對網站的抓取越順利。


    暫時就想到這些,目的在于嘗試性的探討如何更有效的提高網站在搜索引擎的收錄量。


    毛片无码免费无码播放| 日韩欧美中文在线| 在线亚洲欧美中文精品| 精品亚洲A∨无码一区二区三区| 欧美日本中文字幕| 日韩精品无码Av一区二区| 亚洲一区爱区精品无码| 日韩中文字幕在线| 人看的www视频中文字幕| 精品无码一区二区三区爱欲| 中文字幕丰满伦子无码| 人妻无码中文字幕免费视频蜜桃| 亚洲AⅤ永久无码精品AA| 韩国免费a级作爱片无码| 无码无套少妇毛多18p| 人妻中文无码久热丝袜| 狠狠综合久久综合中文88| 一本一道AV无码中文字幕| 亚洲精品无码久久不卡| 精品无人区无码乱码大片国产| 久久久久亚洲av无码专区导航 | 亚洲午夜AV无码专区在线播放| 精品无码一区在线观看| 免费无码成人AV在线播放不卡| 亚洲AV无码码潮喷在线观看| 亚洲av无码一区二区三区在线播放| 日本中文字幕高清| 中文字幕日韩欧美| 久久久久亚洲AV无码专区首JN| 中文字幕一区二区三区日韩精品| 亚洲av午夜国产精品无码中文字 | 欧美 亚洲 有码中文字幕| 五月天无码在线观看| 中国少妇无码专区| 久久中文字幕人妻熟av女| 伊人久久无码中文字幕| 人妻少妇精品视中文字幕国语| 久久精品中文无码资源站| 精品久久久久久久中文字幕| 中文字幕日韩精品在线| 中文字幕无码乱人伦|