SEO如何优化网页源代码,提升用户体验

SEO如何优化网页源代码,提升用户体验,第1张

SEO优化网页源代码,利用夫唯“四处一词”理论,主要从以下几个方面:

1、title标签

title

标签能够告诉用户和搜索引擎网页页面的主题思想是什么,一直是搜索引擎的抓取重点。通常,搜索引擎抓取Title标签出于两个目的:作为影响网页排名的重要因素和作为搜索结果页面的显示信息。不管是哪一个目的,对我们做SEO来说都非常重要。

一般来说,Title标签中的单词最好保持在3~5个左右,最好包含关键字。但Title标签中的单词不要全部都是关键字,因为这样可能会造成页面关键字堆砌,导致过度优化。所选单词应简洁明了、具有描述性,要与网页内容具有很大的相关性,并且每个不同的页面都应该包含Title标签。

2、meta

keywords标签

告诉搜索引擎本页面要优化的关键词是什么,标签中最好包含关键字,用英文逗号隔开。

3、meta

description标签

meta

description标签可以说是对Title标签的进一步解释,可以是一句话或者是包含十几个单词的短语。每个页面都该有其自己的Meta

Description标签,并且Meta

Description标签还可包含一些与网站内容相关但Title标签中未提及的信息。与Title标签要求相似,该部分内容也应具有描述性,与网页内容具有相关性,可包含关键字,但不可过多。

4、h1标签

H1是搜索引擎识别页面信息的重要标记。合理使用H1能够使得页面结构更加清晰,有利于搜索引擎的抓取。H1给文章标题用,并且用一句话合理包含关键词。

5、strong标签

Strong标签不仅是对文字加粗,并且这种形式的加粗会告诉搜索引擎该部分文字比较重要。所以文章正文开头合理出现关键词,并用Strong标签。

6、alt标签

图文并茂。ALT标签是一种图片标签,它将图片的信息以文本的形式展现。对ALT标签的使用没有太多要求,只要在网页中出现图片的部分添加上该属性即可,但其标签内容应与相应页面内容具有相关性,长度不得过长,一般1~5个单词即可。

 页面优化简单来说分为7步:

 1.页面布局,重要的东西要提前。

一般来说,网站标题出现的位置越靠前对优化的帮助越大,正文标题出现在一百五十个字以内是较为理想的情况,当然,在不影响页面布局的情况下越靠前越好。必要的时候可以把标题前面的一些不重要的内容用js包起来。

2.控制js数量。

有的页面做的非常漂亮,打开之后特效很多,这时候就必须需要很多js来支持这些特效,但是,页面在加载这些js的时候会消耗很大的资源,一方面减慢页面加载速度,另一方搜索引擎对js内的东西无法抓取。如果js数量过多就会大大降低页面加载速度影响搜索引擎对页面抓取的完整性,从而影响页面排名。

3.文章关键词的分布。

文章关键词的密度直接影响着页面的排名,所以在布局页面的时候需要考虑到关键词的重复情况,可以在面包屑以及侧边栏适当的调用文章标题来提高关键词密度,获得更好的排名。

这里说的关键词的密度不单单是首页,每个页面都应该考虑。网页的数量和质量很大程度上决定了网站的力量,所以,内容上合适使用关键词,加大网页相关性,对页面的友好度和获得排名也是非常好的。

4.源码的书写技巧。

重要的东西要靠前,在页面排版中,如果是布局需要,文章内容要出现在右侧的话可以在源码中写在侧边栏的前面,之后用float:right浮动到右边即可。源码中非重要的链接尽量用相对路径,如果一个页面中链接非常多的话,用相对路径可以缩短链接长度,减少页面代码长度,利于抓取。

5.图片的处理。

主要是指页面加载速度,太大的图片,如好几百K或者上M的图片对页面打开速度的影响非常大,特别是一些高清的图片,如果一个访客半天都打不开你的网页,那肯定会走掉的。关于这一点我们主要做两步就足够了,一是对图片本身做压缩工作,第二是调用图片建议是用div+css来调用,同时注意给图片添加alt属性。

6.描述标签alt的书写。

搜索引擎蜘蛛无法抓取图片内容的,所以只有通过填写ALT才能使得蜘蛛明白你的图片想要表达的内容,所以这点是很关键的一部分,大家一定不要忽略了。

7.页面的大小控制。

相信很多seoer或者是建站的朋友都不会注意到这个问题,但是对于目前的主流搜索引擎来说是非常重要的,比如百度。比如,以前很多网站的页面是104kb,而现在我们适当加以处理,可以使得页面变成80kb左右,这样子就小很多了,而对于网站来说是有很多帮助的。比较明显的就是加快了网站加载速度,给服务器加压,消耗的资源就少了很多了,可能一两个网页上没啥去区别,但是如果你的网站是几百万网页以上的就会非常有对比了。目前大部分搜索引擎对于网站页面较小的是比较有友好度的。

1.网站布局

一般是采用扁平化的树形结构,及将重要的文章和栏目布局到首页,然后通过首页点击栏目进入到列表页,在点击列表页中的标题进入最终页面,这样就给蜘蛛描述了一条相当于从树干到树枝在到树叶的抓取模式,这种方式有助于蜘蛛爬取到,另外根据网站的大小按需生成xml地图和HTML地图,目的是让蜘蛛能有更多渠道去抓取页面和为用户提供一个全面的地图导航,让用户了解网站的大体结构,当然如果是小型网站的话一般是不需要HTML地图的。

2.代码编写

采用DIV CSS的模式来进行代码的编写,TABLE表格布局已经是过去式了,当然有时候可能还会用到,但请不要以表格的形式为主来做网站的结构的布局,使用DIV CSS布局网站的话能使整个网站的代码和格式控制分离,从而达到减少首页体积的目的,这对网站的打开速度和抓取速度都有着极大的帮助。

3.alt属性设置

蜘蛛是不认识图片的,所以需要设置图片的ALT属性让蜘蛛明白这个图片是什么,并作为百度图片的索引的参数,通常将图片的这些参数设置完整,能带来更高的综合得分,另外alt的属性也要和页面相关,这能让主关键词的排名更稳定也更靠前。

4.内链建设

一个网站好不好,要看内部链接是否通畅而不混乱,而且要设置好相关性的链接,这有助于提高网站的阅读性和联系性,比如一篇介绍手机的文章,其可以再相关性链接下面增加手机的保养知识,手机的品牌,手机图片展示等等与之相关的信息,这对于读者和蜘蛛来说都是有好的。

5.空间购买

网站制作完成在本地测试无误后就需要按需购买空间或者是服务器了,对于个人网站而言往往是不需要单独的购买服务器的,只需要买一个价钱中等的空间即可,需要注意的是在选择共享IP时我们必须了解同IP下是否有垃圾站,一般同IP下 存在上百个网站的话往往风险是比较大的,建议大家在选择的时候最多选择同IP下几十个的空间,而且还要远离和图片、视频类型的网站放在一起,这样才能提高你网站的访问速度。

6.DNS防护

空间购买以后就需要解析域名,一般来说现在有很多的漏洞扫描程序会通过服务器的漏洞和DNS的漏洞或者网站程序的漏洞作为攻击的切入点,而一旦被添加了恶意代码将会造成排名降低甚至被K,所以我们通常在解析域名时都需要做DNS的防护,在百度站长资讯中也提到了《当心dns服务器不稳导致站点被屏》,大家可以去看看。

7.文章更新频率

文章更新不在多、而在于持续稳定的增加,不管是个人网站还是企业、门户网站都有一个内容更新频率策略,每天更新多少篇文章那都是需要计划好的,不能说今天发了几篇明天你就发100篇,总的来幅度不要太大,以持续稳定为前提。但也需要注意文章的质量、可读性、用户体验等方面,不然最终排名上去了也是会下来的,一般来说文章的更新频率往往和所在行业的竞争有关,竞争激烈的行业你必须跟上对手,不然你很快将被淘汰!

8.目标关键词和长尾关键词布局

不仅要合理的分配到页面标题、描述、以及页面正文中的重要位置,还要避免关键词堆砌的情况,一般可以利用语义变化词(如计算机和电脑)、同义词、完全匹配的出现、拆分出现等方式来解决这类问题,这样做的一个好处就是提高页面相关度的同时也避免了被搜索引擎惩罚的可能性!

9.robots的书写

robots文件能够限定蜘蛛的抓取范围,但不同的搜索引擎对robots文件的支持也各不相同,比如谷歌是支持在robots中声明网站的地图的,而百度则不支持,所以说在写robots文件时需要针对不同的搜索引擎来写规则,有关写法方面的知识大家可以了解一下百度百科的《robots》。

满意请采纳,谢谢!


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/781275.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-08-23
下一篇2023-08-23

发表评论

登录后才能评论

评论列表(0条)

    保存