<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    網站建設初始相關的SEO技術(一)

    作者:草根香蕉皮 瀏覽:207 發布時間:2018-08-01
    分享 評論 0

     網站建設初始技術即網站在建立階段,就必須全盤綜合考慮的技術細節,因為后續在網站運營過程中再進行調整,會牽涉太多方面,甚至無法執行。


      1.網站站點地圖(Sitemap)的設置和技術細節


      Sitemap是一種通知機制,就是通過創建一個文件的方式,把網站網頁的URL提交給搜索引擎,在Sitemap中定義好頁面的URL地址、權重、更新頻率等。通過把Sitemap提交給搜索引擎,搜索引擎爬蟲沿著Sitemap里面的鏈接地址進行爬行,這就是Sitemap的機制。


      普通Sitemap文件的建立如下。通過XML的方式創建Sitemap,這是最常見也是最簡單的一種方式。


      網址


      2015.01.03T04:20.08:00


      always


      1.O


      網址


      2015.01.02T20:20:36Z


      daily


      O.8


      1.百度Sitemap


      網頁地址


      2015-01-01


      dafly


      1.0


      2.重要字段含義


      ?changefreq:指定提交的URL對應頁面內容的更新頻率,例如,daily、weeIdb,、monthly、yearly。這個參數用于設置搜索引擎頁面變動的頻率,即考量是否需要蜘蛛經常爬行并更新網頁的內容。


      ?lastmod:當前頁面內容最后的修改時間,這個參數可以給搜索引擎一個參考,就是時效性的參考,某些內容,特別是咨詢類的,搜索引擎會將內容的更新時間作為排序的一個因子。


      ?priority:定義頁面的權重,權重越高,相對于其他頁面,當前頁面的優先級越高。


      ?:用描述具體的鏈接地址,這里需要注意的是鏈接地址中的一些特殊字符必須轉換為XML(HTML)定義的轉義字符,簡化版的


      Sitemap也可以采用記事本方式,就是直接打開一個記事本,然后把URL填入,每個URL一行,然后直接提交搜索引擎,也能實現同樣的目的。


      3.超級門戶的Sitemap模式


      搜索引擎并不限定每個網站提交的Sitemap文件的個數,因此,如果網頁


      URL條目比較多,可以對新增的頁面進行差額提交。


      在創建多個Sitemap文件時,可以通過一個父Sitemap文件鏈接多個子


      Sitemap文件,子Sitemap文件通過填充實際URL條目的模式完成,這樣可以確保


      每個Sitemap文件的URL條目不會特別多,建議一個Sitemap文件的URL條目不


      要超過1000個。


      下面是一個例子。


      http://www.abc.com/sitemap1.xml.gz


      http://www.abc.com/sitemap2.xml.gz


      Sitemapl:


      URLl


      2015-01-01


      daily


      1.0


      URL2


      20 1 5..0 1.,0 1


      daily


      1.0


      URL3


      2015.01.01


      dafly


      1.0


      URL4


      20 l 5―0 1.0 1


      daily


      1.0


      提交Sitemap的方式有多種,通常的做法是創建百度或者其他搜索引擎的站長賬戶,然后在站長后臺把Sitemap的uRL提交上去,在站長后臺可以看到每個Sitemap的處理進度和收錄的數據。


      2.Robots文件設置和技術細節


      Robots.txt文件放在網站的根目錄下,主要用于通知蜘蛛在該網站上的抓取范圍,SEO可以在這個文件中聲明該網站中不想被搜索引擎收錄的部分,或者指定搜索引擎只收錄特定的部分。


      (1).經常使用到Robots.txt文件的情況


      ?網站升級,老版本網站的很多頁面在新版本網站中去掉了,在這種情況下,可以通過Robots文件告訴蜘蛛不再抓取這些已經被去掉的頁面。


      ?網站存在很多重復的內容,比如一個網站同時存在動態頁面和已經經過靜態化處理的頁面,這些頁面在內容上都是完全重復的內容,為了解決重復的問題,可以在Robots文件中禁止蜘蛛抓取動態頁面。


      ?網站內部有些內容不便于公開發布,但是需要允許內部查閱。遇到這種情況,可以在Robots中告訴蜘蛛不要抓取。


      (2).Robots文件的基本寫法


      User-agent:


      Allow:    /cgi.bin/see


      Allow:    /tmp/hi


      Allow:    /~joe/look


      Disallow:    /cgi.bin/


      Disallow:    /t.mp/


      Disallow:|00e|


      Allow是允許蜘蛛爬行的頁面,而Disallow后面則是不允許蜘蛛訪問的路徑和文件。


      3.Robots的使用示例


      (1)僅允許訪問某目錄下某個后綴的文件。


      這里僅允許訪問帶“$”符號的網址,如下。


      User―agent:*


      Allow:.asp$


      Disallow:/


      (2)禁止索引網站中所有的動態頁面。


      這里是限制訪問帶“?”的網址,例如,index.asp?id=1。


      User―agent:*


      DisallOW:/*?*


      (3)使用“*”,限制訪問帶某個后綴的域名。


      這里是禁止訪問admin目錄下所有htm文件,如下。


      User―agent:*


      DisaUow:/admin/*.htm


    毛片无码全部免费| 日韩欧美中文字幕一字不卡| 亚洲av午夜国产精品无码中文字 | 无码 免费 国产在线观看91 | 成人无码a级毛片免费| 中文一国产一无码一日韩| 无码AV波多野结衣久久| 区三区激情福利综合中文字幕在线一区亚洲视频1 | 久久国产高清字幕中文| 亚洲AV永久无码天堂影院 | 国产乱人无码伦av在线a| 高清无码v视频日本www| 久久精品中文字幕久久| 欧美日韩亚洲中文字幕一区二区三区| 无码精品黑人一区二区三区 | 中文字幕无码第1页| √天堂中文www官网在线| 色综合久久中文字幕无码| 日韩乱码人妻无码中文视频| 久久无码人妻一区二区三区午夜| 精品无码久久久久国产动漫3d| 最近2022中文字幕免费视频| 无码人妻精品中文字幕| 中文无码一区二区不卡αv| 黑人无码精品又粗又大又长| 国产产无码乱码精品久久鸭| 久久水蜜桃亚洲av无码精品麻豆| 无码少妇一区二区| 无码国产乱人伦偷精品视频| 无码日韩人妻精品久久蜜桃| 无码一区二区三区免费| 日韩人妻精品无码一区二区三区| 亚洲国产精品无码久久久蜜芽| 精品久久久无码21p发布| 久久亚洲日韩看片无码| 亚洲欧洲精品无码AV| 亚洲国产综合无码一区| 国产精品无码久久综合| 日韩精品久久无码中文字幕| 久久久久久人妻无码| 国产AV无码专区亚洲精品|