<code id="6mcsu"></code>
<li id="6mcsu"></li>
<li id="6mcsu"><dl id="6mcsu"></dl></li>
  • <code id="6mcsu"><tr id="6mcsu"></tr></code>
    或者

    搜索引擎真的遵守robots.txt協議嗎?

    作者:青檸i 瀏覽:175 發布時間:2018-05-22
    分享 評論 0

        我們都知道文件是搜索引擎遵守的一個抓取協議,但是是不是真的有效果呢?


        搜索引擎真的會遵循這個協議嗎?


        讓我們首先來看看


        下面這段 [這是我南昌seo站點的設置:允許GG 百度、ALEXA 抓取,屏蔽了其他一切引擎禁止!]


        User-agent:Googlebot


        Disallow:


        User-agent:baiduspider


        Disallow:


        User-agent:ia_archiver


        Disallow:


        User-agent:*


        Disallow:/


        從理論上來說 這樣的設置就屏蔽了其他一切引擎,但實際上這種方法并不能完全屏蔽SOSO YAHOO MSN之類的爬蟲,在YAHOO上輸入site:還是可以看到內容以及索引的! 遵守robots協議與否當然是由他們自己說了算的!所以要想完全屏蔽搜索引擎的爬蟲,需要在.htaccess中加入限制語句才行,這里我們介紹2種最簡單的方法: 1:


        RewriteEngine on RewriteCond %{HTTP_USER_AGENT} ^MSNBOT [NC] RewriteRule .* - [F]


        2:


        SetEnvIfNoCase User-Agent "^MSNBOT" bad_bot


        <Limit GET POST> Order Allow,Deny Allow from all Deny from env=bad_bot </Limit>


        注:MSNBOT 為MSN蜘蛛機器人代碼 ,如果想要真正屏蔽某個搜索引擎 把其中的紅色部分[MSNBOT] 換成你想要屏蔽的蜘蛛機器人代碼即可! 請不要隨意添寫 否則造成損失與本人無關! seo小林發布,轉載請注明出處:江西南昌seo


    国产成人无码区免费网站| 99久久无码一区人妻a黑| 高清无码视频直接看| 亚洲日韩欧美国产中文| 中文 在线 日韩 亚洲 欧美| 日韩一区二区三区无码影院| 无码精品A∨在线观看十八禁| 中文日韩亚洲欧美字幕| 国产精品无码久久四虎| 亚洲爆乳无码专区| 无码区日韩特区永久免费系列| 无码精品A∨在线观看中文| 国产AV无码专区亚洲AV男同 | 国产办公室秘书无码精品99| 一本色道无码道DVD在线观看| 中文字幕亚洲精品| 中文字幕VA一区二区三区| 人妻少妇精品无码专区动漫| 精品国产a∨无码一区二区三区 | 中文有无人妻vs无码人妻激烈| 在线中文字幕一区| 久久中文骚妇内射| 亚洲精品无码午夜福利中文字幕| 毛片无码全部免费| 日韩乱码人妻无码中文视频| 成人毛片无码一区二区三区| 久久久久亚洲AV无码永不| 亚洲av永久无码精品表情包| 亚洲欧洲无码AV电影在线观看 | 国产成人无码AⅤ片在线观看| 亚洲欧美日韩中文字幕二区| 狠狠精品干练久久久无码中文字幕| 久久精品中文字幕久久| 91在线中文字幕| 最近2019中文字幕电影1| 99re只有精品8中文| 中文精品99久久国产| 精品高潮呻吟99av无码视频| 亚洲国产精品无码久久久秋霞2| 亚洲AV无码一区二区二三区入口 | 中文字幕乱妇无码AV在线|