<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    搜索引擎蜘蛛抓取配額是什么?

    作者:紫色年華 瀏覽:116 發布時間:2017-07-03
    分享 評論 0

        一月份時,Google新的SEO代言人Gary Illyes在Google官方博客上發了一篇帖子:What Crawl Budget Means for Googlebot,討論了搜索引擎蜘蛛抓取份額相關問題。對大中型網站來說,這是個頗為重要的SEO問題,有時候會成為網站自然流量的瓶頸。


        今天的帖子總結一下Gary Illyes帖子里的以及后續跟進的很多博客、論壇帖子的主要內容,以及我自己的一些案例和理解。


        強調一下,以下這些概念對百度同樣適用。


        什么是搜索引擎蜘蛛抓取份額?


        顧名思義,抓取份額是搜索引擎蜘蛛花在一個網站上的抓取頁面的總的時間上限。對于特定網站,搜索引擎蜘蛛花在這個網站上的總時間是相對固定的,不會無限制地抓取網站所有頁面。


        抓取份額的英文Google用的是crawl budget,直譯是爬行預算,我覺得不太能說明是什么意思,所以用抓取份額表達這個概念。


        抓取份額是由什么決定的呢?這牽扯到抓取需求和抓取速度限制。


        抓取需求


        抓取需求,crawl demand,指的是搜索引擎“想”抓取特定網站多少頁面。


        決定抓取需求的主要有兩個因素。一是頁面權重,網站上有多少頁面達到了基本頁面權重,搜索引擎就想抓取多少頁面。二是索引庫里頁面是否太久沒更新了。說到底還是頁面權重,權重高的頁面就不會太久不更新。


        頁面權重和網站權重又是息息相關的,提高網站權重,就能使搜索引擎愿意多抓取頁面。


        抓取速度限制


        搜索引擎蜘蛛不會為了抓取更多頁面,把人家網站服務器拖垮,所以對某個網站都會設定一個抓取速度的上限,crawl rate limit,也就是服務器能承受的上限,在這個速度限制內,蜘蛛抓取不會拖慢服務器、影響用戶訪問。


        服務器反應速度夠快,這個速度限制就上調一點,抓取加快,服務器反應速度下降,速度限制跟著下降,抓取減慢,甚至停止抓取。


        所以,抓取速度限制是搜索引擎“能”抓取的頁面數。


        抓取份額是由什么決定的?


        抓取份額是考慮抓取需求和抓取速度限制兩者之后的結果,也就是搜索引擎“想”抓,同時又“能”抓的頁面數。


        網站權重高,頁面內容質量高,頁面夠多,服務器速度夠快,抓取份額就大。


        小網站沒必要擔心抓取份額


        小網站頁面數少,即使網站權重再低,服務器再慢,每天搜索引擎蜘蛛抓取的再少,通常至少也能抓個幾百頁,十幾天怎么也全站抓取一遍了,所以幾千個頁面的網站根本不用擔心抓取份額的事。數萬個頁面的網站一般也不是什么大事。每天幾百個訪問要是能拖慢服務器,SEO就不是主要需要考慮的事了。


        大中型網站經常需要考慮抓取份額


        幾十萬頁以上的大中型網站,可能要考慮抓取份額夠不夠的問題。


        抓取份額不夠,比如網站有1千萬頁面,搜索引擎每天只能抓幾萬個頁面,那么把網站抓一遍可能需要幾個月,甚至一年,也可能意味著一些重要頁面沒辦法被抓取,所以也就沒排名,或者重要頁面不能及時被更新。


        要想網站頁面被及時、充分抓取,首先要保證服務器夠快,頁面夠小。如果網站有海量高質量數據,抓取份額將受限于抓取速度,提高頁面速度直接提高抓取速度限制,因而提高抓取份額。


        百度站長平臺和Google Search Console都有抓取數據。如下圖某網站百度抓取頻次:


        crawl-stats-1


        上圖是SEO每天一貼這種級別的小網站,頁面抓取頻次和抓取時間(取決于服務器速度和頁面大小)沒有什么大關系,說明沒有用完抓取份額,不用擔心。


        有的時候,抓取頻次和抓取時間是有某種對應關系的,如下圖另一個大些的網站:


        crawl-stats-2


        可以看到,抓取時間改善(減小頁面尺寸、提高服務器速度、優化數據庫),明顯導致抓取頻次上升,使更多頁面被抓取收錄,遍歷一遍網站更快速。


        Google Search Console里更大點站的例子:


        crawl-stats-3


        最上面的是抓取頁面數,中間的是抓取數據量,除非服務器出錯,這兩個應該是對應的。最下面的是頁面抓取時間。可以看到,頁面下載速度夠快,每天抓取上百萬頁是沒有問題的。


        當然,像前面說的,能抓上百萬頁是一方面,搜索引擎想不想抓是另一方面。


        大型網站另一個經常需要考慮抓取份額的原因是,不要把有限的抓取份額浪費在無意義的頁面抓取上,導致應該被抓取的重要頁面卻沒有機會被抓取。


        浪費抓取份額的典型頁面有:


        大量過濾篩選頁面。這一點,幾年前關于無效URL爬行索引的帖子里有詳細討論。


        站內復制內容


        低質、垃圾內容


        日歷之類的無限個頁面


        上面這些頁面被大量抓取,可能用完抓取份額,該抓的頁面卻沒抓。


        怎樣節省抓取份額?


        當然首先是降低頁面文件大小,提高服務器速度,優化數據庫,降低抓取時間。


        然后,盡量避免上面列出的浪費抓取份額的東西。有的是內容質量問題,有的是網站結構問題,如果是結構問題,最簡單的辦法是robots文件禁止抓取,但多少會浪費些頁面權重,因為權重只進不出。


        某些情況下使用鏈接nofollow屬性可以節省抓取份額。小網站,由于抓取份額用不完,加nofollow是沒有意義的。大網站,nofollow是可以在一定程度上控制權重流動和分配的,精心設計的nofollow會使無意義頁面權重降低,提升重要頁面權重。搜索引擎抓取時會使用一個URL抓取列表,里面待抓URL是按頁面權重排序的,重要頁面權重提升,會先被抓取,無意義頁面權重可能低到搜索引擎不想抓取。


        最后幾個說明:


        鏈接加nofollow不會浪費抓取份額。但在Google是會浪費權重的。


        noindex標簽不能節省抓取份額。搜索引擎要知道頁面上有noindex標簽,就得先抓取這個頁面,所以并不節省抓取份額。


        canonical標簽有時候能節省一點抓取份額。和noindex標簽一樣,搜索引擎要知道頁面上有canonical標簽,就得先抓取這個頁面,所以并不直接節省抓取份額。但有canonical標簽的頁面被抓取頻率經常會降低,所以會節省一點抓取份額。


    日韩亚洲欧美中文高清| 亚洲成AV人片在线观看无码| 无码人妻精品一区二区在线视频| 综合国产在线观看无码| 亚洲av无码不卡一区二区三区| 精品久久无码中文字幕| 波多野结AV衣东京热无码专区| 中文字幕一区二区三区久久网站| 国产乱妇无码大片在线观看| 伊人久久综合精品无码AV专区| 亚洲AV区无码字幕中文色| heyzo高无码国产精品| 亚洲热妇无码AV在线播放| 中中文字幕亚洲无线码| 99久久精品无码一区二区毛片| 亚洲va中文字幕无码久久| 无码AV动漫精品一区二区免费| 中文无码伦av中文字幕| 西西4444www大胆无码| 50岁人妻丰满熟妇αv无码区| 亚洲AV日韩AV高潮无码专区| 久久亚洲AV无码精品色午夜麻豆| 中文字幕亚洲综合精品一区| 久久精品亚洲中文字幕无码麻豆| 亚洲日韩VA无码中文字幕| 99久久精品无码一区二区毛片| 久久久久亚洲精品无码蜜桃 | 久久精品无码午夜福利理论片 | 亚洲av中文无码乱人伦在线r▽| av无码久久久久不卡免费网站| 无码人妻丰满熟妇精品区| 亚洲一区无码中文字幕| 日日日日做夜夜夜夜无码| 日韩精品无码免费专区网站 | 无码aⅴ精品一区二区三区浪潮| 亚洲VA中文字幕无码一二三区| 亚洲av无码乱码国产精品| 无码少妇一区二区性色AV| 无码少妇一区二区| 久久精品无码专区免费青青 | 日韩电影无码A不卡|