使用過ECSHOP的朋友都會(huì)知道ECSHOP有嚴(yán)重的重復(fù)收錄過多的問題,很多朋友的網(wǎng)站實(shí)際產(chǎn)品加文章數(shù)量僅僅1000來個(gè),查詢鏈接居然有3,4千,google甚至?xí)猩先f。 重復(fù)鏈接因?yàn)門itle一樣,所以常常會(huì)被搜索引擎懲罰導(dǎo)致收錄差,對(duì)于這個(gè)問題,SEOer們是必須要解決的,以下發(fā)表我個(gè)人的解決經(jīng)驗(yàn),歡迎點(diǎn)評(píng)。
分析會(huì)有哪些重復(fù)鏈接產(chǎn)生
1.就我使用的情況,首先是產(chǎn)品頁和文章頁會(huì)有很多的頁面以 ?from=rss 結(jié)束
如 http://www.xxxx.com/goods-1.html?from=rss
這個(gè)的解決方法有二,一是通過刪除rss信息訂閱功能,二是Robots設(shè)置
我個(gè)人選擇的是第二種
所以我在Robots里加了一條禁止搜索引擎索引的語句:
Disallow: /*rss*
這句的意思是只要根目錄下的鏈接帶 "rss"就不索引,除非你的網(wǎng)站會(huì)有帶頁面地址里正好出現(xiàn)rss這連續(xù)三個(gè)子母,這個(gè)語句都可以解決這個(gè)問題。
2.分類頁里的動(dòng)態(tài)鏈接
分類頁里充斥了大量的動(dòng)態(tài)鏈接
包括屬性篩選的鏈接
排序的鏈接
顯示方式的鏈接
接下來我們逐一擊破
首先是屬性篩選的鏈接
如http://www.xxxx.com/category-1-min80-max90-attr0.html
這個(gè)是篩選里面的價(jià)格的篩選
包括其他屬性的鏈接,我們發(fā)現(xiàn)規(guī)律就是都會(huì)出現(xiàn) "min" "max" "attr"三個(gè)詞,分別是最小,最大,屬性值
和上面的,我們?cè)赗obots加了一跳禁止抓取包括這三個(gè)詞的語句:
Disallow: /*min*
Disallow: /*max*
Disallow: /*attr*
然后,排序的鏈接和顯示方式的鏈接我們點(diǎn)擊后同樣會(huì)出現(xiàn)類似一長串,其中仍然包括 "min" "max" "attr"三個(gè)詞
因而上面Robots的設(shè)置已經(jīng)可以解決
這樣就完了嗎?沒有,雖然我們?cè)O(shè)置了Robots的抓取,但為了讓蜘蛛爬行更方面直接,我們需要做另外一個(gè)工作,就是限制爬行
找到模板文件里對(duì)應(yīng)的屬性篩選和產(chǎn)品列表的模板文件(我自己的是cat_filter.lbi和goods_list.lbi)
找到屬性篩選、排序、顯示方式的鏈接代碼,在其里增加一句 rel="nofollow",意思就是限制爬行
robots的作用在于禁止抓取,而nofollow則在于禁止爬行,雙管齊下很好的引導(dǎo)了蜘蛛和搜索引擎
3.其它的一些重復(fù)動(dòng)態(tài)鏈接
我個(gè)人發(fā)現(xiàn)的其它重復(fù)鏈接還包括品牌商品里的顯示方式
如http://www.xxxx.com/brand-1-c0.html?display=text等
我在Robots同樣加了三句
Disallow: /*min*
Disallow: /*max*
Disallow: /*attr*
就解決了不同顯示方式還有不同鏈接的重復(fù)收錄問題
以上個(gè)人所提到的并未包含所有的動(dòng)態(tài)鏈接,但給大家做了一個(gè)不錯(cuò)的參考,因?yàn)槿f變不離其宗,朋友們可以依據(jù)我提到的方法和思路慢慢的把自己的Robots寫完整,同時(shí)適當(dāng)?shù)氖褂胣ofollow在模板里限制蜘蛛的爬行
注意的是對(duì)于已經(jīng)收錄了大量的重復(fù)鏈接,您進(jìn)行以上提到的修改,搜索引擎并不能快速做出反應(yīng),對(duì)待新的頁面會(huì)限制收錄重復(fù)頁面,但對(duì)于已經(jīng)收錄的重復(fù)鏈接,搜索引擎需要花了一段時(shí)間取消收錄而重新收錄主頁面,個(gè)人的經(jīng)驗(yàn)是至少需要2個(gè)月。
以上經(jīng)驗(yàn)由泰摩網(wǎng)球www.taimo.cn原創(chuàng)整理,歡迎轉(zhuǎn)載,但請(qǐng)保留網(wǎng)址,謝謝支持。