Discuz!的archiver缺點:頁面中的keyword,description都是相同的,造成很多頁面重復度高的情況。
而且archiver帖子正文部分無法解析UBB代碼,因此加重顏色、加粗、加鏈接等都失去了作用。
不建議開啟,非要開啟的話可以參考以下2點:
1.給權威鏈接加上Canonical標簽,規范下最有價值URL。
<link href="http://www.moke8.com/discuzx/" rel="canonical" />
對一組內容完全相同或高度相似的網頁,通過使用Canonical標簽可以告訴搜索引擎哪個頁面為規范的網頁,能夠規范網址并避免搜索結果中出現多個內容相同或相似的頁面,幫助解決重復內容的收錄問題。
2.使用 robots.txt 屏蔽搜索引擎收錄 archiver,這樣 spider 遍歷速度會快些。
User-agent: *
Disallow: /archiver/
spider 在訪問一個網站時,首先會檢查該網站的根域下是否有一個叫做 robots.txt 的純文本文件,這個文件用于指定spider在您網站上的抓取范圍。
您可以在您的網站中創建一個robots.txt,在文件中聲明 該網站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。
總之,不一樣的地址相同的內容會被搜索引擎認為重復內容。開啟的話建議給權威鏈接加上 Canonical 標簽,或者把 archiver 用 robots.txt 屏蔽,防止重復性內容被收錄。
此文由 網站目錄_網站網址收錄與提交入口 編輯,未經允許不得轉載!: