网页中若出现大量的js 和css代码会影响网站的收录,最终会影响到seo的
JS的不足之处:搜索引擎不识别坦白而言我认为JS对SEO的负面影响并非很大,只要网站中不含有太多的JS,因为现在搜索引擎确实不能够识别这样的一种编程语言。这一点Google和其他搜索引擎也作出过强调:尽量使用搜索引擎可以识别的文本信息,避免过多的JS、Cookies等复杂技术。是的,掌握一个度,可以更大的发挥JS对于SEO有利的一面。
如果既想使用JS代码,又想不干扰搜索引擎的抓取识别,该怎么办呢?其实这个问题也不是很难,重要的是:把握一个度!
如何避免这个问题:
方法一:千万不要再导航使用JS代码
把不重要的JS通通放到页面的最下面body的上面,实现异步加载,也就是等网页都加载完了,最后在加载这些不重要的JS,这样就不影响网页速度了。导航和网页中的其他链接是搜索引擎抓取的重点,当导航使用了JS代码,也就是说搜索引擎是无法识别的,那就不会抓取你的网页,更不用说什么排名了。
方法二、合并JS文件
合并JS,也就是减少HTTP请求,少给服务器请求一次就加快一点速度,而合并两个原本独立的JS就需要点技术了
方法三:给JS文件减肥
咱不讨论什么三目运算符、减少对象查找、如何让JS简洁,咱就用“JS减肥工具”。通常这类工具会把JS文件中几百行的代码压缩成一行,使体积变小。推荐工具:http://javascriptcompressor.com/。因为空行等问题,有时候使用这类工具会使JS功能失效,而最简单的办法是用Dreamweaver,把压缩后的JS放入DW中,DW会自动提示你那里有误,把错误的地方另起一行,或还原回去即可。
我们都知道对于网站的JS脚本,百度蜘蛛在收录的时候,不会抓取,今天给大家讲一讲怎样让JS脚本不会影响SEO。1、网页上所有跟SEO相关的因素都用HTML表达出来,使用DOM进行特效控制。只要把所有跟SEO相关的因素使用HTML表达了出来,搜索蜘蛛就可以爬取到这段内容,进而收录这段内容或者根据其中的链接继续爬行,因为蜘蛛不抓取解析javascript脚本,所以使用DOM控制特效不会对蜘蛛抓取产生任何影响。如果你将需要爬行的链接通过变量赋值的方式依靠javascript脚本来显示的话,那么蜘蛛就无法获得链接的相关参数:锚文本、指向URL,如果你有不希望蜘蛛爬行的链接的话,将其写入javascript脚本变量是一个好办法。
2、如果有希望蜘蛛抓取的目标页面需要转向,不要使用javascript脚本进行跳转,因为这样做的话蜘蛛完全无法获取到目标页面的地址,采用noscript标记进行目标url指定是一个好办法,因为蜘蛛能够正确识别noscript标记,并且一般情况下不会对浏览器显示产生影响(除非你的浏览器屏蔽了脚本解释引擎)。
在网站优化中,为了让js不影响优化,一般采用js外部调用的方式,就是把js写在一个文件里,需要用到的时候,直接调用这个js文件的名字就好了。
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)