首页文章投稿网站存在复制内容处理办法总结

网站存在复制内容处理办法总结

2013-11-23 67

复制内容可以通过很多方式产生。内部材料复制需要特殊方法才能达到最好的SEO结果。在很多情况下,复制页面对用户和搜索引擎没有任何价值。如果是这样,尝试修改实现方式使每一个页面只有一个URL,从而彻底解决问题。另外,从旧URL301转向到留下的URL,帮助搜索引擎尽快发现你做的改进,保留被删除页面可能有的链接权重。

下面桐乡SEO介绍几种处理复制内容的简单方法:

1、使用canonical标签。这是消除复制页面的第二好的方法。

2、使用robots.txt文件阻挡搜索引擎蜘蛛爬行网站页面的复制版本。

3、使用RobotsNoIndex标签告诉搜索引擎不要索引复制页面。

4、所有指向复制页面的链接使用NoFollow,防止任何链接权重流向这些页面。采取这种方法时,建议也在页面上使用NoIndex。

桐乡SEO提醒:Noindex可以删除已经被搜索引擎收录的链接,另一个广泛的用途是用在类似言情小说网站Q猪文学站(http://www.qzread.com/)的HTML地图上,地图本身不需要权重,但是需要搜索引擎爬行和索引HTML地图上的所有小说链接,这是可以用Noindex。

有时候可以联合使用这些方法。例如,可以将指向页面的链接加NoFollow,页面本身也使用NoIndexo这是合情合理的,因为你要阻止链接权重流到这些页面,而且如果有人从其他网站链接到你的页面(这个你控制不了),还是能确保页面不会进入索引。

然而,如果你用robots.txt文件防止页面被爬行,在页面本身使用NoIndex和NoFollow没有意义了,因为蜘蛛读不到页面,也永远看不到NoIndex和NoFollow标签。下面,是一些具体复制内容情况。

为了有所区别,桐乡SEO对Nofollow、robots.txt和Noindex作一个简单的介绍:

1、Nofollow标签的意思是在页面A上,如果存在一个链接指向页面B,如果页面A上的链接存在nofollow标签,意思是告诉搜索引擎不要追踪该条链接,该链接对页面B没有权重传递作用。Nofollow针对的是页面链接,最初的作用是给博客上的垃圾评论,告诉搜索引擎评论中的链接为非网站推荐。

2、robots.txt是一个协议,目的是告诉搜索引擎哪些链接可以抓取,哪些页面不要出现在搜索结果中。

3、Noindex和robots.txt的功能类似,也是告诉搜索引擎页面禁止索引,如果一定要区别robots的话,一个是在蜘蛛进入网站以后,会首先爬行robots.txt,确定网站允许爬行的范围,而Noindex是当蜘蛛爬行该页面时,才会发现页面是禁止索引的。

从节省蜘蛛资源的角度,如果有页面禁止索引,桐乡SEO还是推荐使用robots.txt。本文由网站制作博客(http://www.seozoro.com/)原创发布,尊重作者版权,转载请注明出处。

  • 广告合作

  • QQ群号:707632017

温馨提示:
1、本网站发布的内容(图片、视频和文字)以原创、转载和分享网络内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。邮箱:2942802716#qq.com(#改为@)。 2、本站原创内容未经允许不得转裁,转载请注明出处“站长百科”和原文地址。

相关文章