1、title标签
title
标签能够告诉用户和搜索引擎网页页面的主题思想是什么,一直是搜索引擎的抓取重点。通常,搜索引擎抓取Title标签出于两个目的:作为影响网页排名的重要因素和作为搜索结果页面的显示信息。不管是哪一个目的,对我们做SEO来说都非常重要。
一般来说,Title标签中的单词最好保持在3~5个左右,最好包含关键字。但Title标签中的单词不要全部都是关键字,因为这样可能会造成页面关键字堆砌,导致过度优化。所选单词应简洁明了、具有描述性,要与网页内容具有很大的相关性,并且每个不同的页面都应该包含Title标签。
2、meta
keywords标签
告诉搜索引擎本页面要优化的关键词是什么,标签中最好包含关键字,用英文逗号隔开。
3、meta
description标签
meta
description标签可以说是对Title标签的进一步解释,可以是一句话或者是包含十几个单词的短语。每个页面都该有其自己的Meta
Description标签,并且Meta
Description标签还可包含一些与网站内容相关但Title标签中未提及的信息。与Title标签要求相似,该部分内容也应具有描述性,与网页内容具有相关性,可包含关键字,但不可过多。
4、h1标签
H1是搜索引擎识别页面信息的重要标记。合理使用H1能够使得页面结构更加清晰,有利于搜索引擎的抓取。H1给文章标题用,并且用一句话合理包含关键词。
5、strong标签
Strong标签不仅是对文字加粗,并且这种形式的加粗会告诉搜索引擎该部分文字比较重要。所以文章正文开头合理出现关键词,并用Strong标签。
6、alt标签
图文并茂。ALT标签是一种图片标签,它将图片的信息以文本的形式展现。对ALT标签的使用没有太多要求,只要在网页中出现图片的部分添加上该属性即可,但其标签内容应与相应页面内容具有相关性,长度不得过长,一般1~5个单词即可。
1.网站布局一般是采用扁平化的树形结构,及将重要的文章和栏目布局到首页,然后通过首页点击栏目进入到列表页,在点击列表页中的标题进入最终页面,这样就给蜘蛛描述了一条相当于从树干到树枝在到树叶的抓取模式,这种方式有助于蜘蛛爬取到,另外根据网站的大小按需生成xml地图和HTML地图,目的是让蜘蛛能有更多渠道去抓取页面和为用户提供一个全面的地图导航,让用户了解网站的大体结构,当然如果是小型网站的话一般是不需要HTML地图的。
2.代码编写
采用DIV CSS的模式来进行代码的编写,TABLE表格布局已经是过去式了,当然有时候可能还会用到,但请不要以表格的形式为主来做网站的结构的布局,使用DIV CSS布局网站的话能使整个网站的代码和格式控制分离,从而达到减少首页体积的目的,这对网站的打开速度和抓取速度都有着极大的帮助。
3.alt属性设置
蜘蛛是不认识图片的,所以需要设置图片的ALT属性让蜘蛛明白这个图片是什么,并作为百度图片的索引的参数,通常将图片的这些参数设置完整,能带来更高的综合得分,另外alt的属性也要和页面相关,这能让主关键词的排名更稳定也更靠前。
4.内链建设
一个网站好不好,要看内部链接是否通畅而不混乱,而且要设置好相关性的链接,这有助于提高网站的阅读性和联系性,比如一篇介绍手机的文章,其可以再相关性链接下面增加手机的保养知识,手机的品牌,手机图片展示等等与之相关的信息,这对于读者和蜘蛛来说都是有好的。
5.空间购买
网站制作完成在本地测试无误后就需要按需购买空间或者是服务器了,对于个人网站而言往往是不需要单独的购买服务器的,只需要买一个价钱中等的空间即可,需要注意的是在选择共享IP时我们必须了解同IP下是否有垃圾站,一般同IP下 存在上百个网站的话往往风险是比较大的,建议大家在选择的时候最多选择同IP下几十个的空间,而且还要远离和图片、视频类型的网站放在一起,这样才能提高你网站的访问速度。
6.DNS防护
空间购买以后就需要解析域名,一般来说现在有很多的漏洞扫描程序会通过服务器的漏洞和DNS的漏洞或者网站程序的漏洞作为攻击的切入点,而一旦被添加了恶意代码将会造成排名降低甚至被K,所以我们通常在解析域名时都需要做DNS的防护,在百度站长资讯中也提到了《当心dns服务器不稳导致站点被屏》,大家可以去看看。
7.文章更新频率
文章更新不在多、而在于持续稳定的增加,不管是个人网站还是企业、门户网站都有一个内容更新频率策略,每天更新多少篇文章那都是需要计划好的,不能说今天发了几篇明天你就发100篇,总的来幅度不要太大,以持续稳定为前提。但也需要注意文章的质量、可读性、用户体验等方面,不然最终排名上去了也是会下来的,一般来说文章的更新频率往往和所在行业的竞争有关,竞争激烈的行业你必须跟上对手,不然你很快将被淘汰!
8.目标关键词和长尾关键词布局
不仅要合理的分配到页面标题、描述、以及页面正文中的重要位置,还要避免关键词堆砌的情况,一般可以利用语义变化词(如计算机和电脑)、同义词、完全匹配的出现、拆分出现等方式来解决这类问题,这样做的一个好处就是提高页面相关度的同时也避免了被搜索引擎惩罚的可能性!
9.robots的书写
robots文件能够限定蜘蛛的抓取范围,但不同的搜索引擎对robots文件的支持也各不相同,比如谷歌是支持在robots中声明网站的地图的,而百度则不支持,所以说在写robots文件时需要针对不同的搜索引擎来写规则,有关写法方面的知识大家可以了解一下百度百科的《robots》。
满意请采纳,谢谢!
JS的不足之处:搜索引擎不识别坦白而言我认为JS对SEO的负面影响并非很大,只要网站中不含有太多的JS,因为现在搜索引擎确实不能够识别这样的一种编程语言。这一点Google和其他搜索引擎也作出过强调:尽量使用搜索引擎可以识别的文本信息,避免过多的JS、Cookies等复杂技术。是的,掌握一个度,可以更大的发挥JS对于SEO有利的一面。
如果既想使用JS代码,又想不干扰搜索引擎的抓取识别,该怎么办呢?其实这个问题也不是很难,重要的是:把握一个度!
如何避免这个问题:
方法一:千万不要再导航使用JS代码
把不重要的JS通通放到页面的最下面body的上面,实现异步加载,也就是等网页都加载完了,最后在加载这些不重要的JS,这样就不影响网页速度了。导航和网页中的其他链接是搜索引擎抓取的重点,当导航使用了JS代码,也就是说搜索引擎是无法识别的,那就不会抓取你的网页,更不用说什么排名了。
方法二、合并JS文件
合并JS,也就是减少HTTP请求,少给服务器请求一次就加快一点速度,而合并两个原本独立的JS就需要点技术了
方法三:给JS文件减肥
咱不讨论什么三目运算符、减少对象查找、如何让JS简洁,咱就用“JS减肥工具”。通常这类工具会把JS文件中几百行的代码压缩成一行,使体积变小。推荐工具:http://javascriptcompressor.com/。因为空行等问题,有时候使用这类工具会使JS功能失效,而最简单的办法是用Dreamweaver,把压缩后的JS放入DW中,DW会自动提示你那里有误,把错误的地方另起一行,或还原回去即可。
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)