<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    如何和搜索引擎爬蟲對話

    作者:長瘦不老i 瀏覽:277 發布時間:2018-05-17
    分享 評論 0

      抓取策略:那些網頁是我們需要去下載的,那些是無需下載的,那些網頁是我們優先下載的,定義清楚之后,能節省很多無謂的爬取。更新策略:監控列表頁來發現新的頁面;定期check 頁面是否過期等等。抽取策略:我們應該如何的從網頁中抽取我們想要的內容,不僅僅包含最終的目標內容,還有下一步要抓取的url.抓取頻率:我們需要合理的去下載一個網站,卻又不失效率。


      讓我對“如何和爬蟲對話 ”這個課題有了一些思考,下面歸納的主要用于迎合上面提到的爬蟲“抓取策略”。


      1、通過 robots.txt 和爬蟲對話:搜索引擎發現一個新站,原則上第一個訪問的就是 robots.txt 文件,可以通過 allow/disallow 語法告訴搜索引擎那些文件目錄可以被抓取和不可以被抓取。


      關于 robots.txt 的詳細介紹:about /robots.txt另外需要注意的是:allow/disallow 語法的順序是有區別的


      2、通過 meta tag 和爬蟲對話:比如有的時候我們希望網站列表頁不被搜索引擎收錄但是又希望搜索引擎抓取,那么可以通過 <meta name=“robots” content=“noindex,follow”> 告訴爬蟲,其他常見的還有 noarchive,nosnippet,noodp 等。


      3、通過 rel=“nofollow” 和爬蟲對話:關于 rel=“nofollow” 最近國平寫了一篇文章《如何用好 nofollow》很值得一讀,相信讀完之后你會有很大的啟發。


      4、通過 rel=“canonical” 和爬蟲對話:關于 rel=“canonical” 谷歌網站站長工具幫助有很詳細的介紹:深入了解 rel=“canonical”


      5、通過網站地圖和爬蟲對話:比較常見的是 xml 格式 sitemap 和 html 格式 sitemap,xml 格式 sitemap 可以分割處理或者壓縮壓縮,另外,sitemap 的地址可以寫入到 robots.txt 文件。


      6、通過網站管理員工具和搜索引擎對話:我們接觸最多的就是谷歌網站管理員工具,可以設定 googlebot 抓取的頻率,屏蔽不想被抓取的鏈接,控制 sitelinks 等,另外,Bing 和 Yahoo 也都有管理員工具,百度有一個百度站長平臺,內測一年多了仍舊在內測,沒有邀請碼無法注冊。


      另外,這里面還衍生出一個概念,就是我一直比較重視的網站收錄比,所謂網站收錄比=網站在搜索引擎的收錄數/網站真實數據量,網站收錄比越高,說明搜索引擎對網站的抓取越順利。


      暫時就想到這些,目的在于嘗試性的探討如何更有效的提高網站在搜索引擎的收錄量。


    久久亚洲AV无码西西人体| 久久久久久国产精品无码下载| 亚洲av无码一区二区三区不卡| 中文字幕日韩精品在线| 中文精品99久久国产 | 区三区激情福利综合中文字幕在线一区| 性无码一区二区三区在线观看| 无码AV天堂一区二区三区| 狠狠噜天天噜日日噜无码| 天天看高清无码一区二区三区| 中文字幕在线观看有码| 一本大道香蕉中文在线高清 | 无码精品国产一区二区三区免费| 在线中文字幕播放| 亚洲熟妇无码八V在线播放| 波多野结衣中文在线| 亚洲情XO亚洲色XO无码| 中文字幕人妻无码一夲道 | 亚洲国产精品无码久久SM | 国产成人无码一区二区在线观看| 亚洲中文字幕久久精品无码APP| 青春草无码精品视频在线观| 久久精品国产亚洲AV无码娇色| 中文字幕久久久久人妻| 小泽玛丽无码视频一区 | 中文无码喷潮在线播放| 999久久久无码国产精品| 国产日韩精品中文字无码| 亚洲精品无码久久久| 亚洲AV无码专区日韩| 无码精品人妻一区| 无码人妻精品一区二区三区99不卡| 国产精品无码专区| 国产精品va无码一区二区| 人妻丰满熟妇AV无码区乱| 无码精品久久久天天影视 | 精品成在人线AV无码免费看| 无码人妻精品一区二区三区99仓本| 亚洲中文字幕无码永久在线| 中文字幕无码精品三级在线电影| 国产 亚洲 中文在线 字幕|