前端开发人员需要具备哪些SEO优化技巧

前端开发人员需要具备哪些SEO优化技巧,第1张

前端开发人员需要具备哪些SEO优化技巧

前端开发工程师不仅需要要跟视觉设计师、交互式设计师配合,完美还原设计图稿,编写兼容各大浏览器、加载速度快、用户体验好的页面。现在还需要跟SEO人员配合,调整页面的代码结构和标签。一些成熟的平台,在开发初期并没有考虑优化问题,所以做出来的页面,就算是效果很炫,功能很强,但是对搜索引擎非常的不友善。任何一个成熟的网站,后期页面都是动辄几百万的,到这个时候再来调整结构,既费时又费力,最怕的还是会影响到排名和收录。

所以说与其在后期碰到问题再来调整,还不如把问题解决在源头。我本人也是从事前端开发工作的,下面把我工作过程中,积累的几个开发过程中就需要做好的SEO优化技巧,分享给大家。

1、简化代码结构,更利于搜索引擎分析抓取有用内容:页面尽量采用DIV+CSS,当然,表格展现模式用table还是比div方便很多的所有js、css采用外联方式,图片采用css精灵,减少请求次数。看下下面同样的内容,用div和talbe布局的代码比较,显而易见用div简便的多。

2、重要内容优先加载(第一个链接最好是网站主关键词,不刻意要求),可以用css来处理,索引一篇文章的长度也是有限制的,一定要把最重要的内容,优先展现给蜘蛛,这方面你可以通过查看一些比较大的网页快照来求证。

3、每个页面只能出现一次H1标签,H2标签可以多次:H1权重很高,普遍认为仅次于title,一般资讯详情页的标题、商品详情页的标题,都放在H1里。

4、图片一定要添加alt属性,title属性可选:蜘蛛不认识图片上的内容,只能通过alt属性来判断,如果是商品列表页,所有商品都加了alt和title的话,容易造成堆砌关键词,所以我一般是只加alt属性。

5、图片大小声明:如果图片大小不做定义的话,页面需要重新渲染,就会影响到加载速度。

6、链接可根据需求添加title属性以及nofllow值非特殊性链接,链接地址一定要写入herf属性,有些前端开发人员为了省事,直接用div加个click事件当链接,在视觉上和使用上确实是实现了链接效果,但是做过SEO优化的人

员都知道,蜘蛛目前对于js的支持很差,基本无法读取里面的链接地址。所以说用click事件是绝对不允许的,特别是一些重要的导航链接。

7、页面内容尽量不要做成flash、图片、视频,这些东西蜘蛛是抓不到的,就算是必须的,也要生成相应的静态页面。有很多企业站看着很炫,全站flash,老板看着是爽了,做SEO优化的人员就要抓狂了,全站没一个链接。

8、除首页外别的页面最好要加上面包屑型导航,导航结构一定要清晰。

9、做好404页面,一般会加首页链接及错误提示,并测试其返回状态码为404:1、用户体验友好,可以留住用户,不至于直接关闭页面2、蜘蛛友好,可以返回抓取其他页面。

10、网站结构呈扁平状树型,目录结构不宜过深,每个页面离首页最多点击不超过3次,过深不利于搜索引擎的抓取。

1、掌握前端代码知识,即HTML,DIV+CSS,JavaScript。

2、熟悉大众类开发语言如PHP。

3、了解通用服务器如apache,nginx,IIS。

4、熟练使用普及率较高的建站程序如织梦cms,wordpress,帝国cms,z-blog等。

5、掌握搜索引擎的工作原理以及影响排名的因素,域名的选择和优化以及空间的安全性、稳定性和速度、关键词的一些策略、网站内容的添加、网站标签内容的撰写、网站链接的建设、Robots文件以及404页面的使用等因素。

SEO(Search Engine Optimization):汉译为搜索引擎优化。是一种方式:利用搜索引擎的规则提高网站在有关搜索引擎内的自然排名。

扩展资料:

常用方法

1、SEO的设置

SEO设置中三个重要的参数:title、keywords、description。

2、文章标题优化

3、内链优化

4、明确目标关键词

5、“与众相同”的原创内容

6、外链的发布

写作技巧

1、确保对行业有一定的研究,文章内容有一定的深度。这能够建立起网站的丰富性。

2、文字始终紧紧围绕关键字,围绕网站主题。

3、使用的语句,要使大部分人都能读懂。

4、避免内容重复。

5、多提供一些有价值性的资料给用户,提高信任度。

参考资料来源:百度百科-SEO

1. 网站 TDK 标签的设置。title,description,keywords,根据产品业务,概括出核心关键词作为TDK的内容,每个页面都不一样。如果每个页面的keywords都一样的话,搜索引擎会持怀疑态度,觉得你有作弊的嫌疑。

此外,还有 meta 的 canonical 设置,一个网站还通过多个 url 访问,canonical 就是用来告诉搜索引擎,这么多个url中最有价值最重要的一个url,一般是网站的首页。

2. 建立 robots.txt 文件。seorobots 文件是搜索引擎登录网站第一个访问的文件,robots可以设置允许被访问的搜索引擎,最主要的还是设置允许Allow 和不允许 Disallow访问的目录和文件,少写Disallow,多写Allow,用意是引导爬虫抓取网站的信息。另外,在robots文件底部指明网站的 sitemap 文件的目录,爬虫读取其中的 sitemap 路径,接着抓取其中相链接的网页。提高网站的收录量。

案例:  按住 ctrl 键点击:https://www.taobao.com/robots.txt

3. 建立网站的 sitemap 地图文件。sitemap 是一个将网站栏目和连接归类的一个文件,可以更好地将网站展示给搜索引擎,提高爬虫的爬取效率。sitemap 地图文件包含html(针对用户)和 xml(针对搜索引擎)两种。当网站更新频繁的时候,sitemap 文件要做到自动更新(程序实现),更新不频繁的可以手动更新提交。

 

4. 图片 img 标签必须加上 alt 属性,并注明图片的含义。

5. h1~h6 标签合理使用。按道理所有标签都需要根据自身的语气合理去使用,这里不展开讲述,这里只讲 h 标签的注意事项。h1 标签一个页面只能出现 1 次,h2 标签一般作为二级标题或者文章的小标题。最合理的使用时 h1~h6 按顺序层层嵌套下去,不可以断层或者反序。


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/519176.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-06-20
下一篇2023-06-20

发表评论

登录后才能评论

评论列表(0条)

    保存