2、
但是可能你会觉得,不应该啊,我自己每次访问速度都很快,没有延迟,其实这个判断是错误的,网站面向的是全网,你所在的地区打开快,不代表其他地方打开速度也很快,这个就需要再一些专门的网站测速去测试一下全部地区的访问数值,来做一个统计对比,分析问题。
3、再者可能是网站页面代码冗余,造成页面过大,也有可能造成百度提醒:该页面因服务不稳定可能无法正常访问!这种情况就要尽可能的精简代码,这个也是初级seo里面就涉及的,属于站内优化的一个因素。还有一个值得一提的是,建议域名使用DNS加速,以百度云加速为例,它会有很多的节点,不同的地区有不同的访问节点,当用户访问的时候,会以当地的节点去接入网站,使访问速度加快。
后台应该有有服务器日志,一般先把你的服务器日志通过ftp下载到电脑用txt格式打开 就行了,至于怎么看,看什么时间那个IP哪个蜘蛛看了网站的哪个地方有什么问题就行了。 查看原帖>>麻烦采纳,谢谢!
搜索引擎蜘蛛,对于我们来说非常神秘,本文的配图使用蜘蛛侠的原因就在于此。当然我们也不是百度的也不是Google的,所以只能说探秘,而不是揭秘。本文内容比较简单,只是给不知道的朋友一个分享的途径,高手和牛人请绕行吧。传统意义上,我们感觉搜索引擎蜘蛛(spider)爬行,应该类似于真正的蜘蛛在蜘蛛网上爬行。也就是比如百度蜘蛛找到一个链接,顺着这个链接爬行到一个页面,然后再顺着这个页面里面的链接继续爬……这个类似于蜘蛛网,也类似于一棵大树。这个理论虽然正确,但是不准确。
搜索引擎内部是有一个网址索引库的,所以搜索引擎蜘蛛是从搜索引擎的服务器出发,顺着搜索引擎已有的网址爬行一个网页,并将网页内容抓取回来。页面采集回来之后,搜索引擎会对其进行分析,将内容和链接分开,内容暂时先不说。分析出来链接之后,搜索引擎并不会马上去派蜘蛛进行抓取,而是把链接和锚文本记录下来交给网址索引库进行分析、对比和计算,最后放入网址索引库。进入了网址索引库之后,才会有蜘蛛去抓取。
也就是如果出现了某个网页的外链,并不一定会立刻有蜘蛛去抓取这个页面,而是会有一个分析计算的过程。即便是这个外链在蜘蛛抓取之后被删除了,这个链接也有可能已经被搜索引擎记录,以后还有抓取的可能。而且下次如果蜘蛛再去抓取这个外链所在页面,发现链接不存在了,或者外链所在页面出现了404,那么只是减少了这个外链的权重,应该不会去网址索引库删除这个链接。
所以说已经不存在的页面上的链接,也有作用。今天就分享这些,以后继续跟大家分享我自己分析的内容,如果有不准确的地方,请大家批评指正。
转载请注明来自逍遥博客@LiboSEO,本文地址:http://liboseo.com/1060.html
除非注明,逍遥博客文章均为原创,转载请注明出处和链接!
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)