<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    搜索引擎真的遵守robots.txt協議嗎?

    作者:青檸i 瀏覽:175 發布時間:2018-05-22
    分享 評論 0

        我們都知道文件是搜索引擎遵守的一個抓取協議,但是是不是真的有效果呢?


        搜索引擎真的會遵循這個協議嗎?


        讓我們首先來看看


        下面這段 [這是我南昌seo站點的設置:允許GG 百度、ALEXA 抓取,屏蔽了其他一切引擎禁止!]


        User-agent:Googlebot


        Disallow:


        User-agent:baiduspider


        Disallow:


        User-agent:ia_archiver


        Disallow:


        User-agent:*


        Disallow:/


        從理論上來說 這樣的設置就屏蔽了其他一切引擎,但實際上這種方法并不能完全屏蔽SOSO YAHOO MSN之類的爬蟲,在YAHOO上輸入site:還是可以看到內容以及索引的! 遵守robots協議與否當然是由他們自己說了算的!所以要想完全屏蔽搜索引擎的爬蟲,需要在.htaccess中加入限制語句才行,這里我們介紹2種最簡單的方法: 1:


        RewriteEngine on RewriteCond %{HTTP_USER_AGENT} ^MSNBOT [NC] RewriteRule .* - [F]


        2:


        SetEnvIfNoCase User-Agent "^MSNBOT" bad_bot


        <Limit GET POST> Order Allow,Deny Allow from all Deny from env=bad_bot </Limit>


        注:MSNBOT 為MSN蜘蛛機器人代碼 ,如果想要真正屏蔽某個搜索引擎 把其中的紅色部分[MSNBOT] 換成你想要屏蔽的蜘蛛機器人代碼即可! 請不要隨意添寫 否則造成損失與本人無關! seo小林發布,轉載請注明出處:江西南昌seo


    AV无码人妻中文字幕| 一夲道无码人妻精品一区二区| 蜜桃AV无码免费看永久| 久久久久无码中| 日韩亚洲国产中文字幕欧美| 韩日美无码精品无码| 日韩精品久久无码中文字幕| 激情无码人妻又粗又大中国人 | 激情无码人妻又粗又大中国人| 中文无码喷潮在线播放| 中文字幕乱偷无码AV先锋| AV无码免费永久在线观看| 高潮潮喷奶水飞溅视频无码| 亚洲JIZZJIZZ中国少妇中文| 中文字幕一区二区人妻| 免费无码婬片aaa直播表情| 蜜桃成人无码区免费视频网站| 久久AV高潮AV无码AV| 中文无码vs无码人妻| 日韩欧美成人免费中文字幕| 无码人妻黑人中文字幕| 亚洲va中文字幕无码| 无码精品人妻一区二区三区免费| 久久精品aⅴ无码中文字字幕重口| 亚洲AV无码久久精品成人| 精品亚洲成在人线AV无码| 中文字幕在线免费看线人| 日韩中文久久| 国产精品99久久久精品无码| 区三区激情福利综合中文字幕在线一区亚洲视频1 | 亚洲精品无码成人AAA片| 久久无码AV中文出轨人妻| 亚洲日韩中文在线精品第一| 亚洲中文字幕无码一去台湾| 中文字幕一区日韩在线视频| 亚洲日韩中文字幕日韩在线| 精品久久亚洲中文无码| 亚洲国产精品无码久久| 精品无码国产一区二区三区AV| 777久久精品一区二区三区无码| av无码专区|