webserver

webserver,第1张

web应用服务器是互联网时代最为重要之一的底层支持。它处理相应的应用访问请求,并为前端提供相应的展示数据。

不同的web应用服务器实现性能不同,大型网站服务器可以每秒处理几万到几十万的应用请求,中小型网站服务器可能会因为每秒几千次请求停机。

从架构的角度上而言,web-server的升级是一个迭代的过程,只有现在的应用服务器无法满足网站的访问量,才会在此之上进行优化。对于一名好的架构师而言,落地和防灾、可扩展是优先需要考虑的相关事宜。

首先要说的是软件开发是一个确定性的事件, 有章可循,有理可溯 ,任何现象都是可以被解释的,这是入门级程序员和高级程序员的区别之处。

我们以这种思路自顶向下去分析解决问题。

以主流的JavaEE为例,传统的应用开发两个较为核心的工作内容是:

这可能会涉及持续化集成、自动化测试、测试驱动开发概念。

在这之后,可能还会存在的工作是:

在这个过程中,可能会涉及封装、基类、工具类、反射、泛型的概念。

从上面可以看出,软件开发是一件团队合作的事情。应该由 不同的人员去从事不同的事情 。传统项目的分工基本如下(基于个人主观猜测):

目前比较主流的web应用框架是以spring-boot为主的微服务框架。对于上面说的三个事情而言,重要的是 把其中任何一件事情当作一个工程去做,赋予一个合适的时间周期。 这部分内容在预研过程中非常关键,前期未考虑到的因素后期再修改代价可能为 指数级

以spring-boot为主,结合mysql搭建web应用服务器的例子github上有很多,在这里不再赘述。

从客户端传递到服务器,响应时间由以下三个部分组成:

当出现应用响应时间过高这个问题时,对于相关人员,首先需要做的是:

对上面三个部分进行测试,分析它们分别所消耗的时间,然后再对此进行优化。 做到有的放矢,不要四处放枪

当我们开发完应用程序之后,该如何进行应用的部署呢?怎样的部署才能够保证服务器的处理时间较短?

下面我们讨论单个tomcatweb应用服务器和多个tomcatweb应用服务器。

通过spring boot 创建web应用有两种方式:war包与jar包。在本文中以war包为例。

servlet解析web请求过程:

tomcat作为servlet容器的一种,管理着部署的多个web应用。tomcat运行架构图如下:

从上图中可以看出:

所以由于每个web应用只创建了一个servlet实例,所以需要线程安全问题。(即servlet中包含静态变量和成员变量的时候会出现线程安全的问题。应该使用局部变量。)

tomcat 并发模型

从单个tomcat运行web应用中可以看出:

java web通过封装servlet屏蔽了服务细节,使web开发人员专注与业务逻辑的实现。这是j2ee能在web开发中有一定地位的原因。

然而,由于servlet的创建和tomcat 多线程的并发处理全部交由tomcat来做,在这一个层次程序员无法做太多的事情,只能对tomcat和jvm进行调优。

万幸的是cpu不是系统性能的瓶颈。但是目前有很多的游戏已经使用goroutine来实现了。因为golang的协程可以开上万个,非常适合多线程的处理。

在一些大型网站中,对这部分性能调优的解决方案有:

第二种方案就引入了多tomcat web应用服务器。它的思路是:

在云计算尚未出现时,负载均衡及容器的维护往往由内部的技术部自行实现,在云计算时代,由于K8S和Docker的出现,使这类问题解决更为容易。

K8S的弹性伸缩,把容器进行拷贝复制,并自动负责负载均衡,可以大大简化其流程。

ps:在K8S上运行的多个tomcat容器是相同的拷贝。

淘宝的例子

从传统的意义上讲,系统的性能瓶颈并不存在于cpu的计算能力,而在于I/O。

所以大型网站架构上通常在思考如何降低I/O的时间。

最常用的降低I/O时间是使用reddis和memcached做缓存,关于这块前辈的经验摘引如下:

安全内容博大精深,关于安全方面相关的一些基本的认知链接如下:

web application security

另外,如果对于java 而言,可以使用一个apache的安全框架

shiro

此外还有一些诸如分布式文件存储、加快服务器脚本运算速度、页面组件分离等都是提高服务器响应的方法。

在web开发中,cookie和seesion经常用到。接下来进行简单的说明。cookie和session主要是用来保存数据及状态。

cookie 和session 的区别:

建议:

cookie和session可以解决跨页面传递数据的问题。

前端跨页面传递数据是一个比较繁琐的问题,依赖于浏览器的架构和实现。cookie和session是一种通用的解决方案。

网页响应时间 指的是客户发出请求到得到响应的整个过程的时间。在某些工具中,请求响应时间通常会被称为“ TTLB ” (Time to laster byte) ,意思是从发起一个请求开始,到客户端收到最后一个字节的响应所耗费的时间。

响应时间的计算模型:

响应时间 =网络传输时间(请求)+服务器处理时间(一层或是多层)+网络传输时间(响应)+页面前段解析时间

简化的 浏览器响应时间的计算模型 :

浏览器响应时间 = 服务器响应时间 + 页面装载时间 + 页面渲染时间

页面渲染时间 主要包含两个部分:

页面渲染时间 = 脚本执行时间 + 浏览器引擎渲染时间

2-5-10原则

当用户在2秒以内得到响应时,会感觉系统的响应很快;

当用户在2-5秒之间得到响应时,会感觉系统的响应速度还可以;

当用户在5-10秒以内得到响应时,会感觉系统的响应速度很慢,但是还可以接受;

而当用户在超过8秒后仍然无法得到响应时,会感觉系统糟透了,或者认为系统已经失去响应,而选择离开这个Web站点,或者发起第二次请求。

2秒首页 ,5秒普通页面, 10秒~复杂查询页面。

在进行性能测试时,“合理的响应时间”取决于用户的需求,而不能依据测试人员自己设想来决定。

web服务器常用性能指标如下:

【吞吐量】 固定时间间隔内的处理完毕事务个数。通常是1秒内处理完毕的请求个数,单位:事务/秒(tps)。

【响应时间】一次事务的处理时间。通常指从一个请求发出,到服务器进行处理后返回,再到接收完毕应答数据的时间间隔,单位:毫秒。

【CPU占用率】1-CPU空闲率,表示CPU被使用情况,反映了系统资源利用情况。


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/246764.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-13
下一篇2023-04-13

发表评论

登录后才能评论

评论列表(0条)

    保存