还有就是,彻底的精简内页链接的动态URL。由于内页较多,层次较深,url链接更多的是以数据库驱动形成的动态页面这样的页面很明显不利于seo的,因此,如果要优化内页的话,大批量的内页链接静态化处理是必 须的。 这一点的具体详情请参阅 《seo实战密码》最后一章案例分析,有很多细节方面的优化建议。
希望你能满意
一、网站页面重复收录的原因是什么?在网站优化过程中,搜索引擎并不喜欢重复内容的收录,一直强调的也是原创,那为什么网站同一页面还会重复收录呢?
一般后缀出现了一个问号或者其他的字符串,是因为百度收录文章的同时,会给该篇文章加一个标签,但是访问网站的时候,会自动跳转回来原来的网站,首页或者内页,至于内页的链接被收录到首页有可能是因为该篇文章设置在首页上显示,所以最终的链接地址指向了首页。
1.搜索引擎识别问题—搜索引擎毕竟只是人为编写的一套规则,做不到充分的识别,所以导致部分URL地址的内容重复收录。
2.程序设计问题—有些程序在设计中为了“预览”方便在后台存在动态页面。但因设计不当,导致搜索引擎依旧通过目录的索引便可发现这一存在,进而对其索引收录。
3.模板问题—在模板制作中常常易忽视这一问题,最后模板完成后既存在动态页面,又存在静态页面,如此怎能不被搜索引擎重复收录呢?
4.网站改版—网站改版可能会导致一些URL地址的重复收录。
二、网站页面重复收录该如何处理?
可以从以下四个方面着手:
1.URL标准化
在网站建设过程中尽量统一URL地址,勿使用动态页面进行链接,一来是搜索引擎青睐静态页面,另一方面也可以防止相同内容被搜索引擎重复收录。
2.利用robots.txt屏蔽动态文件
利用robots.txt进行动态文件的屏蔽,如:“Disallow: /?”即屏蔽了根目录下带”?”的页面,这个可以自己灵活设置。
3.及时的清除缓存
每个网站都会带有两个网址,一般网站更新文章后都需要生成静态的网址,本身就存在一个动态的,自然生成静态后就会多出一个网址,这样的话,如果没及时清除缓存,就可能使得同一个页面的静态,动态URL网址都被收录,因为这搜索引挚把同一篇文章的两个网址看作是独立的,自然就两个都被收录了。所以,及时清除缓存可以很大程度上减少网页被重复收录。
4.利用网站地图引导蜘蛛
网站地图的作用不单单是把整站的内容进行归纳,而且还可以让蜘蛛爬行更加的顺畅无阻,有序的抓取网站内的各个页面,从而也能减少蜘蛛对网站页面重复收录的概率。
没看到图,没见到具体情况。排名情况我做了归纳,一般是下面的3种情况。
1、一般来说,相对于一个关键词,一个网站首页排名只有一次。
2、正常情况下,优化好的网站,内页也同样可以参与排名,这样在搜索结果的首页你可以出现多条一个网站的多条页面信息。这是正常的。
例如:
3、还有一种情况,是用站群系统,生成数十、乃至上百的不同二级域名的子网站,由于每个网站域名不同,但内容基本一样。给人的感觉上是同一个网站,由于是新站,同时能生成大量的伪原创新页面,对于百度来说,往往会给一个展示的机会,这就是利用了百度的新站机会抢占排名。是黑帽常用的一种手段。但由于违背了用户体验度原则,这类网站很快会被取消掉排名。对于正规的企业和优化公司来说,这种做法是不可取的!您看到的应该就是这种情况!
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)