<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    robots.txt怎么寫?【seo優(yōu)化】

    作者:山里的苦丁 瀏覽:249 發(fā)布時間:2018-01-29
    分享 評論 0

      robots文件是用來告訴搜索引擎:這個網(wǎng)站上哪些部分可以被訪問、哪些不可以,robots文件是存放在網(wǎng)站根目錄下的一個純文本文件。當(dāng)搜索引擎訪問一個網(wǎng)站時,它首先會檢查該網(wǎng)站根目錄下是否存在robots文件。robots文件必須放置在一個網(wǎng)站的根目錄下,而且文件名必須全部小寫。


      我們做的網(wǎng)站肯定希望被收錄,因為網(wǎng)站流量的一部分或者是大部分都是來自搜索,所以對網(wǎng)站來說是很重要的。問題是:我們有的網(wǎng)站內(nèi)容不希望杯搜索到,那么怎么辦呢?在這種情況下,我們就有必要會用到robots文件,來與搜索引擎溝通。所有的搜索引擎蜘蛛自動在網(wǎng)站根目錄中尋找這個文件,所以你只需創(chuàng)建它并上傳,然后等待蜘蛛來閱讀。


      1、允許所有搜索引擎訪問


      User-agent: *


      Disallow:


      或者


      User-agent: *


      Allow: /


      在這里大家要注意下,可以最直接的建一個空文件 “robots.txt”然后放到網(wǎng)站的根目錄。


      2、禁止所有搜索引擎訪問


      User-agent: *


      Disallow: /


      或者


      User-agent: *


      allow:


      3、禁止所有搜索引擎訪問網(wǎng)站中的幾個部分,在這里我用a、b、c目錄來代替


      User-agent: *


      Disallow: /a/


      Disallow: /b/


      Disallow: /c/


      如果是允許,則是


      Allow: /a/


      Allow: /b/


      Allow: /c/


      4、禁止某個搜索引擎的訪問,我用w來代替


      User-agent: w


      Disallow: /


      或


      User-agent: w


      Disallow: /d/*.htm


      在Disallow:后面加 /d/*.htm的意思是禁止訪問/d/目錄下的所有以”.htm”為后綴的URL,包含子目錄。


      5、只允許某個搜索引擎的訪問,我用e來代替


      User-agent: e


      Disallow:


      在Disallow:后面不加任何東西,意思是僅允許e訪問該網(wǎng)站。


      6、使用”$”限制訪問url


      User-agent: *


      Allow: .htm$


      Disallow: /


      意思是僅允許訪問以”.htm”為后綴的URL


      7、禁止訪問網(wǎng)站中所有的動態(tài)頁面


      User-agent: *


      Disallow: /*?*


      8、禁止搜索引擎F抓取網(wǎng)站上所有圖片


      User-agent: F


      Disallow: .jpg$


      Disallow: .jpeg$


      Disallow: .gif$


      Disallow: .png$


      Disallow: .bmp$


      意思是只允許引擎抓取網(wǎng)頁,禁止抓取任何圖片(嚴(yán)格來說,是禁止抓取jpg、jpeg、gif、png、bmp格式的圖片。)


      9、只允許搜索引擎E抓取網(wǎng)頁和.gif格式圖片


      User-agent: E


      Allow: .gif$


      Disallow: .jpg$


      Disallow: .jpeg$


      Disallow: .png$


      Disallow: .bmp$


      意思是只允許抓取網(wǎng)頁和gif格式圖片,不允許抓取其他格式圖片


      END


      注意事項


      絕大多數(shù)的搜索引擎機(jī)器人都遵守robots文件的規(guī)則,關(guān)于怎么寫robots文件的方法,大致就是這些了。要提醒大家的是:robots.txt文件一定要寫對,如果不太會寫,還是要先了解再寫,以免給網(wǎng)站的收錄帶來麻煩。


    久久99久久无码毛片一区二区| 中文字幕乱码无码人妻系列蜜桃| 久久精品中文无码资源站| 丰满岳乱妇在线观看中字无码 | 少妇伦子伦精品无码STYLES| 五月天中文字幕mv在线| 成人无码精品1区2区3区免费看| 开心久久婷婷综合中文字幕| 亚洲中文字幕无码一去台湾| 久久久久久人妻无码| 日韩va中文字幕无码电影| 久久久噜噜噜久久中文福利| 国产成人无码a区在线视频| 亚洲韩国精品无码一区二区三区| 最近2019中文字幕免费直播| 中文字幕日本人妻久久久免费| 精品久久久久久无码国产| 无码精品人妻一区二区三区免费看| 在线天堂中文新版www| 中文字幕人妻无码系列第三区| 精品无码人妻一区二区三区不卡| 小13箩利洗澡无码视频网站| 在线精品无码字幕无码AV| 中文字幕日韩人妻不卡一区 | 亚洲AV无码无限在线观看不卡| 日韩精品一区二区三区中文 | 欧美视频中文字幕| 精品久久久中文字幕人妻| 无码人妻精品一区二区蜜桃百度| Aⅴ精品无码无卡在线观看| 久久精品亚洲中文字幕无码麻豆 | 一本大道东京热无码一区| 日日摸夜夜爽无码毛片精选| 伊人久久无码精品中文字幕| 最近最新免费中文字幕高清| 一区二区三区在线观看中文字幕| 久久久99精品成人片中文字幕 | 一区二区三区人妻无码| 久久久久精品国产亚洲AV无码| 亚洲午夜国产精品无码| 无码人妻精品一区二区三区99仓本|