具体参看一下几点:
1.网站及页面权重。
权重高、资格老、有权威的网站蜘蛛是肯定特殊对待的,这样的网站抓取的频率非常高,搜索引擎蜘蛛为了保证高效,对于网站不是所有页面都会抓取的,而网站权重越高被爬行的深度也会比较高,相应能被抓取的页面也会变多,这样能被收录的页面也会变多。
2.网站服务器。
网站服务器是网站的基石,网站服务器如果长时间打不开,那么这相当与闭门谢客,蜘蛛想来也来不了。百度蜘蛛也是网站的一个访客,如果服务器不稳定或是比较卡,蜘蛛每次来抓取都比较艰难,并且有的时候一个页面只能抓取到一部分,这样久而久之,百度蜘蛛的体验越来越差,自然会影响对网站的抓取
3.网站的更新频率。
蜘蛛每次爬行都会把页面数据存储起来。如果第二次爬行发现页面与第一次收录的完全一样,说明页面没有更新,蜘蛛也就没有必要经常抓取了。页面内容经常更新,蜘蛛就会更加频繁的访问页面,但是蜘蛛不是你一个人的,不可能就在这蹲着等你更新,所以我们要主动向蜘蛛示好,有规律的进行文章更新,这样蜘蛛就会根据你的规律有效的过来抓取,不仅让你的更新文章能更快的抓取到,而且也不会造成蜘蛛经常性的白跑一趟。
4.文章的原创性。
优质的原创内容对于百度蜘蛛的诱惑力是非常巨大的,蜘蛛存在的目的就是寻找新东西,所以网站更新的文章不要采集、也不要每天都是转载,我们需要给蜘蛛真正有价值的原创内容,蜘蛛能得到喜欢的,自然会对你的网站产生好感,经常性的过来觅食。
5.扁平化网站结构。
蜘蛛抓取也是有自己的线路的,在之前你就给他铺好路,网站结构不要过于复杂,链接层次不要太深,如果链接层次太深,后面的页面很难被蜘蛛抓取到。
6.网站程序。
在网站程序之中,有很多程序可以制造出大量的重复页面,这个页面一般都是通过参数来实现的,当一个页面对应了很多URL的时候,就会造成网站内容重复,可能造成网站被降权,这样就会严重影响到蜘蛛的抓取,所以程序上一定要保证一个页面只有一个URL,如果已经产生,尽量通过301重定向、Canonical标签或者robots进行处理,保证只有一个标准URL被蜘蛛抓取。
7.外链建设。
大家都知道,外链可以为网站引来蜘蛛,特别是在新站的时候,网站不是很成熟,蜘蛛来访较少,外链可以增加网站页面在蜘蛛面前的曝光度,防止蜘蛛找不到页面。在外链建设过程中需要注意外链的质量,别为了省事做一些没用的东西,百度现在对于外链的管理相信大家都知道,我就不多说了,不要好心办坏事了。
8.内链建设。
蜘蛛的爬行是跟着链接走的,所以内链的合理优化可以要蜘蛛抓取到更多的页面,促进网站的收录。内链建设过程中要给用户合理推荐,除了在文章中增加锚文本之外,可以设置相关推荐,热门文章,更多喜欢之类的栏目,这是很多网站都在利用的,可以让蜘蛛抓取更大范围的页面。
9.首页推荐。
首页是蜘蛛来访次数最多的页面,也是网站权重最高的页面,可以在首页设置更新版块,这样不仅能让首页更新起来,促进蜘蛛的来访频率,而且可以促进更新页的抓取收录。同理在栏目页也可以进行此操作。
10.检查死链,设置404页面
搜索引擎蜘蛛是通过链接来爬行搜索,如果太多链接无法到达,不但收录页面数量会减少,而且你的网站在搜索引擎中的权重会大大降低。蜘蛛在遇见死链就像进了死胡同,又得折返重新来过,大大降低蜘蛛在网站的抓取效率,所以一定要定期排查网站的死链,向搜索引擎提交,同时要做好网站的404页面,告诉搜索引擎错误页面。
11.检查robots文件
很多网站有意无意的直接在robots文件屏蔽了百度或网站部分页面,却整天在找原因为什么蜘蛛不来抓取页面,百度是怎么收录你的网页?所以有必要时常去检查一下网站robots文件是否正常。
12.建设网站地图。
搜索引擎蜘蛛非常喜欢网站地图,网站地图是一个网站所有链接的容器。很多网站的链接层次比较深,蜘蛛很难抓取到,网站地图可以方便搜索引擎蜘蛛抓取网站页面,通过抓取网站页面,清晰了解网站的架构,所以建设一个网站地图不仅提高抓取率还能获得蜘蛛好感。
13.主动提交
每次更新完页面,主动把内容向搜索引擎提交一下也是一个不错的办法,只不过不要没收录就一直去提交,提交一次就够了,收不收录是搜索引擎的事,提交不代表就要收录。
14.监测蜘蛛的爬行。
利用网站日志监测蜘蛛正在抓取哪些页面、抓取过哪些页面,还可以利用站长工具对蜘蛛的爬行速度进行查看,合理分配资源,以达到更高的抓取速度和勾引更多的蜘蛛。
总结:网站要获得更多的收录就需要做好搜索引擎蜘蛛的抓取优化工作,只有提高了网站整体的抓取率,才能提高相应的收录率,这样网站的内容才能获得更多展示和推荐,网站排名才能得到提高。底子打好才能往上爬,基础建设始终是网站优化的根本。
索引量简单的说就是你网站被搜索引擎收录的页面数量。索引量能够影响到网站的收录率,是一个非常重要的seo因素。站点内容页面需要经过搜索引擎的抓取和层层筛选后,方可在搜索结果中展现给用户。页面通过系统筛选,并被作为搜索候选结果的过程,即为建立索引。当前在百度的site语法所得出的数值是索引量的估算值,比较不准。
百度用于抓取网页的程序叫做Baiduspider - 百度蜘蛛,我们查看网站被百度抓取的情况主要是分析,网站日志里百度蜘蛛Baiduspider的活跃性:抓取频率,返回的HTTP状态码。
查看日志的方式:
过FTP,在网站根目录找到一个日志文件,文件名一般包含log,下载解压里面的记事本,这即是网站的日志,记录了网站被访问和操作的情况。因为各个服务器和主机的情况不同,不同的主机日志功能记录的内容不同,有的甚至没有日志功能。
日志内容如下:
61.135.168.22 - - [11/Jan/2009:04:02:45 +0800] "GET /bbs/thread-7303-1-1.html HTTP/1.1" 200 8450 "-" "Baiduspider+(+http://www.baidu.com/search/spider.htm)"
分析:
/bbs/thread-7303-1-1.html 代表,抓取/bbs/thread-7303-1-1.html 这个页面。
200 代表成功抓取。
8450 代表抓取了8450个字节。
如果你的日志里格式不是如此,则代表日志格式设置不同。
很多日志里可以看到 200 0 0和200 0 64 则都代表正常抓取。
抓取频率是通过查看每日的日志里百度蜘蛛抓取次数来获知。抓取频率并没有一个规范的时间表或频率数字,我们一般通过多日的日志对比来判断。当然,我们希望百度蜘蛛每日抓取的次数越多越好。
让蜘蛛经常光临
文章需要经常更新
蜘蛛就和一个人一样,想要吸引它,必须要有最新鲜的内容。如果都是一些老旧的内容,谁还会还看呢?每天或者数天一篇新的原创文章能够很好地勾引蜘蛛,同时也能够让更多的访客来你的网站上留下足迹。
页面简洁,保证打开速度
一个干净、简洁的页面能够比一个满是广告、无用信息的页面更页面更能够吸引用户,这对于蜘蛛也是。越少的需要抓取的内容,越快的打开速度,能够保证蜘蛛的高效率抓取,蜘蛛来访的频率也会越高。
内部链接结构良好,无死链和大量重复链
蜘蛛的爬行除了抓取页面,还通过页面上的链接进行“行走”。如果正好步入了一个死链,正如同步入深渊一般,蜘蛛可能需要一段时间之后才能继续抓取。同样的,如果有大量的重复链接,一直爬到这个页面上去,蜘蛛就会认为这个页面没有太大的意义,甚至会停止爬行。
为蜘蛛指路——建设网站地图
网站地图就好比是一个指向标,唯有清晰明了的指向标才能指引蜘蛛的去向。方便快捷的道路也会勾引来更多的蜘蛛。
每个页面都有完整的meta标签
拥有完整的meta标签可以更快地告诉蜘蛛这个页面里有什么,提高蜘蛛的抓取效率。这主要包括keywords(关键词)和description(描述),如果想让meta更完美,可以加上generator(作者)、robots(蜘蛛)、copyright(版权)等等。
确保服务器能够正常运作,避免宕机
在建网站之前,就要考虑好选择一个稳定的服务器,宁可多花点钱,也不要贪小便宜。稳定的运作能够使蜘蛛更好地进行抓取并不中断,还能容纳下更多勾引来的蜘蛛。
确保服务器返回信息正常
千万不要限制服务器返回信息,这对于蜘蛛来说很重要。一旦无法获取到正确的返回信息,蜘蛛将会迷失方向。
监测蜘蛛的爬行
可以利用日志知道蜘蛛正在抓取哪些页面,知己知彼,方能根据蜘蛛的喜好对页面进行调整,以勾引来更多的蜘蛛。
利用Google管理员工具查看爬行速度
可以利用Google专门为站长提供的管理员工具对蜘蛛的爬行速度进行查看,合理分配资源,以达到更高的抓取速度和勾引更多的蜘蛛。
增加网站的外链
这一条和第三点相类似,因为蜘蛛的通过链接爬行。别的网站上也有蜘蛛,就可以想办法将蜘蛛勾引过来,这办法就是在网站上发外链。
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)