<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    如何利用robots文件來進行SEO優化

    作者:匆匆那年 瀏覽:198 發布時間:2017-11-27
    分享 評論 0

        robots文件可限制抓取網頁的搜索引擎蜘蛛對您網站的訪問。這些蜘蛛是自動的,它們在訪問任意網站的網頁之前,都會查看是否存在阻止它們訪問特定網頁的 robots.txt 文件。簡單的說,就是在百度進來抓取的第一時間,告訴百度指數哪些東西是可以看的,哪些東西是不能看的。只有當您的網站中包含您不想讓搜索引擎編入索引的內容時,才需要使用 robots.txt 文件。Robots協議用來告知搜索引擎哪些頁面能被抓取,哪些頁面不能被抓取;可以屏蔽一些網站中比較大的文件,如:圖片,音樂,視頻等,節省服務器帶寬;可以屏蔽站點的一些死鏈接。方便搜索引擎抓取網站內容;設置網站地圖連接,方便引導蜘蛛爬取頁面。下面就來和大家說說如何利用robots文件來進行SEO優化。


        robots文件寫法


        User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個通配符


        Disallow: /admin/ 這里定義是禁止爬尋admin目錄下面的目錄


        Disallow: /require/ 這里定義是禁止爬尋require目錄下面的目錄


        Disallow: /ABC/ 這里定義是禁止爬尋ABC目錄下面的目錄


        Disallow: /cgi-bin/*.htm 禁止訪問/cgi-bin/目錄下的所有以“.htm”為后綴的URL。


        Disallow: /*?* 禁止訪問網站中所有包含問號 (?) 的網址


        Disallow: /.jpg$ 禁止抓取網頁所有的。jpg格式的圖片


        Disallow:/ab/adc.html 禁止爬取ab文件夾下面的adc.html文件。


        Allow: /cgi-bin/?這里定義是允許爬尋cgi-bin目錄下面的目錄


        Allow: /tmp 這里定義是允許爬尋tmp的整個目錄


        Allow: .htm$ 僅允許訪問以“.htm”為后綴的URL。


        Allow: .gif$ 允許抓取網頁和gif格式圖片


        Sitemap: 網站地圖 告訴爬蟲這個頁面是網站地圖


        robots文件用法


        例1. 禁止所有搜索引擎訪問網站的任何部分


        User-agent: *


        Disallow: /


        實例分析:淘寶網的 Robots.txt文件


        User-agent: Baidu百度蜘蛛


        Disallow: /


        User-agent: baidu百度蜘蛛


        Disallow: /


    制服丝袜日韩中文字幕在线| 国产成人无码一区二区在线观看| 熟妇人妻系列av无码一区二区| 国产精品热久久无码av| 自慰无码一区二区三区| 人妻精品久久久久中文字幕一冢本| 日韩精品无码一区二区中文字幕| 亚洲日韩中文字幕在线播放| 国产成人精品无码一区二区| 在线a亚洲v天堂网2019无码| 精品久久久久久无码中文野结衣| 亚洲成A人片在线观看无码3D| 精品无码人妻夜人多侵犯18| 国产色无码精品视频免费| 中文字幕国产在线| 亚洲国产精彩中文乱码AV| 狠狠精品久久久无码中文字幕| 无码一区二区三区免费| 精品人妻无码区在线视频| 中文字幕一区二区三区5566| 久久亚洲中文字幕精品有坂深雪| 天天看高清无码一区二区三区| 国产乱妇无码大片在线观看| 国产午夜无码精品免费看| 无码人妻久久一区二区三区免费丨| 日韩人妻无码精品系列| 中文字幕av日韩精品一区二区| 最近高清中文字幕免费| 在线中文字幕av| 中文字幕日韩欧美一区二区三区| 免费在线中文日本| 中文字幕一区二区三区精彩视频| 最近中文国语字幕在线播放视频 | 无码人妻丰满熟妇区BBBBXXXX| 久久精品99无色码中文字幕| 日韩中文字幕电影| 中文字幕无码毛片免费看| 无码国内精品久久综合88| 成人A片产无码免费视频在线观看 成人无码AV一区二区 | 中文字幕手机在线视频| 中文字幕免费在线观看|