話題廣場
-
Cloaking-障眼法
Cloaking-障眼法 障眼法中文解釋是:遮蔽或轉(zhuǎn)移別人視線使其看不清真相的手法。 SEO中的Cloaking-障眼法是什么意思呢? 指對某一個網(wǎng)頁制作了兩個版本,讓搜索引擎和瀏覽者分別看到不同的網(wǎng)
胡舒君
2016-12-15
閱讀(1693)
0
0
-
Backlinks-導(dǎo)入鏈接
Backlinks=Inbound Links 中文叫:導(dǎo)入鏈接、外部鏈接 很顯然,意思是由其他網(wǎng)站指向你的網(wǎng)站的鏈接。導(dǎo)出鏈接(outbound links)剛好相反。 導(dǎo)入鏈接是搜索引擎特別是go
胡舒君
2016-12-15
閱讀(2213)
0
0
-
Baiduspider - 百度蜘蛛
Baiduspider - 百度蜘蛛: 百度是如何收錄到那么多網(wǎng)頁的呢?這個百度用以抓取互聯(lián)網(wǎng)上數(shù)以億計的網(wǎng)頁的程序,就叫做Baiduspider - 百度蜘蛛。 它是一個程序,夜以繼日得在互聯(lián)網(wǎng)上找
胡舒君
2016-12-15
閱讀(2046)
0
0
-
Alexa排名是什么?
整個互聯(lián)網(wǎng)現(xiàn)在一共存在1億多個網(wǎng)站,平均來講每10個網(wǎng)民中,有一個人擁有網(wǎng)站。但,網(wǎng)站和網(wǎng)站是有很大區(qū)別的,不能說你有網(wǎng)站,我也有網(wǎng)站,咱們就水平相當(dāng)。阿里巴巴網(wǎng)站和SEO十萬個為什么網(wǎng)站,顯然水平不
胡舒君
2016-12-14
閱讀(1473)
0
0
-
Anchor Text-鏈接錨文本
Anchor Text 中文解釋:“鏈接錨文本”。 舉個例子說明鏈接錨文本: 哪里可以最簡捷學(xué)習(xí) SEO 呢,SEO十萬個為什么或許是個不錯的選擇。這里,SEO 就是鏈接錨文本(Anchor Text
胡舒君
2016-12-14
閱讀(1636)
0
0
-
ALT-代替屬性
ALT-代替屬性,用來對網(wǎng)頁上的圖片進行描述,光標(biāo)在圖片上時顯示的提示語即采用該標(biāo)簽實現(xiàn),如:本頁右側(cè)的“RSS”圖標(biāo)。 從SEO和用戶體驗來看,ALT-代替屬性都是必要的,其重要性主要有: 網(wǎng)頁內(nèi)容
胡舒君
2016-12-14
閱讀(1345)
0
0
-
black hat-黑帽
black hat-黑帽 經(jīng)常聽人家講SEO 黑帽,是什么意思? 簡單講就是采用搜索引擎禁止的方式優(yōu)化網(wǎng)站,一般我們叫 SEO作弊。 都是做 SEO,為什么有黑帽和白帽之分? 比如,群發(fā)留言增加外連,
胡舒君
2016-12-13
閱讀(1780)
0
0
-
查看網(wǎng)頁源代碼全是亂碼,而頁面顯示正常,什么回事?
會不會影響搜索引擎(百度)收錄?答案是:不會! 如果頁面顯示正常,查看網(wǎng)頁源代碼發(fā)現(xiàn)是亂碼,這個情況一般來說是瀏覽器的問題。比如,你用IE看源代碼是亂碼,但用firefox看源代碼就不會是亂碼。(搜索
胡舒君
2016-12-13
閱讀(2484)
0
0
-
訪問本頁面,您的瀏覽器需要支持JavaScript,怎么回事?
百度和google里面搜索我的站點,出現(xiàn):“訪問本頁面,您的瀏覽器需要支持JavaScript”。到底怎么回事? 問題如: 這幾天發(fā)現(xiàn)在百度和GOOGLE里搜索自己的站點時都顯示:訪問本頁面,您的瀏覽
胡舒君
2016-12-13
閱讀(2954)
0
0
-
我的站怎么就不被收錄呀?
這個問題,被大家問過無數(shù)遍。我也回答了不下百遍。 下面是解決方案: 1、查下你的日志,在日志里搜索這幾個:“baidu”“google”“yahoo” ; 2、從最近的日志里開始找,如果沒有,再往前找
胡舒君
2016-12-09
閱讀(2589)
0
0
-
Robots.txt 文件應(yīng)放在哪里?
Robots.txt 文件必須放在網(wǎng)站的根目錄。放在子目錄的 Robots.txt 文件搜索引擎不能爬取到,所以不會起任何作用。 例子: http://www.seowhy.com/robots.tx
胡舒君
2016-12-09
閱讀(2208)
0
0
-
robots.txt文件有什么必要?
什么是robots.txt文件? 搜索引擎機器人通過鏈接抵達(dá)互聯(lián)網(wǎng)上的每個網(wǎng)頁,并抓取網(wǎng)頁信息。搜索引擎機器人在訪問一個網(wǎng)站時,會首先檢查該網(wǎng)站的根目錄下是否有一個叫做robots.txt的純文本文件
胡舒君
2016-12-09
閱讀(1954)
0
0