请问tomcat搭建的http文件服务器如何设定文件目录排列规则??

请问tomcat搭建的http文件服务器如何设定文件目录排列规则??,第1张

修改web.xml 把listings 改成 true 添加 sortListings 为true

<servlet>

<servlet-name>default</servlet-name>

<servlet-class>org.apache.catalina.servlets.DefaultServlet</servlet-class>

<init-param>

<param-name>debug</param-name>

<param-value>0</param-value>

</init-param>

<init-param>

<param-name>listings</param-name>

<param-value>true</param-value>

</init-param>

<init-param>

<param-name>sortListings</param-name>

<param-value>true</param-value>

</init-param>

<load-on-startup>1</load-on-startup>

</servlet>

Nginx是一个高性能的HTTP和反向代理服务器,特点是占用内存少,并发能力强,事实上Nginx的并发能力确实在同类型的网页服务器中表现好。Nginx专为性能优化而开发,性能是其最重要的考量,实现上非常注重效率,能经受高负载的考验,有报告表明能支持高达50000个并发连接数。 需要客户自己在浏览器配置代理服务器地址。 例如:在大陆访问www.google.com,我们需要一个代理服务器,我们通过代理服务器去访问谷歌,这个过程就是正向代理。 反向代理,客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器地址,隐藏了真实服务器IP地址。 单个服务器解决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们说的负载均衡。 为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速度。降低原来单个服务器的压力。 进入到下面的目录,然后使用命令 配置文件所在位置:/usr/local/nginx/conf/nginx.conf 由全局块+events块+http块组成 从配置文件开始到events之间的内容,主要会设置一些影响Nginx服务器整体运行的配置指令,主要包括配置运行Nginx服务器的用户(组)、允许生成的worker process数,进程pid存放路径、日志存放路径和类型以及配置文件的引入等。 events块设计的指令主要影响Nginx服务器与用户的网络连接,常用的设置包括是否开启对多work process下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个work process可以同时支持的最大连接数等。下面的例子表示每个work process支持的最大连接数为1024。这部分配置对Nginx的性能影响较大,在实际中应该灵活配置。 Nginx服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里,http块又包括http全局块和server块。 http全局块配置的指令包括文件引入、MIME-TYPE定义、日志自定义、连接超时时间、单链接请求数上限等。 这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。 每个http块可以包括多个server块,而每个server块就相当于一个虚拟主机。 每个server块也可以分为全局server块,以及可以同时包含多个location块。 最常见的配置时本虚拟主机的监听配置和本虚拟主机的名称或IP配置。 一个server块可以配置多个location块。 这块的主要作用是基于Nginx服务器接收到的请求字符串(例如server_name/uri-string),对虚拟主机名称(也可以是IP别名)之外的字符串(例如前面的/uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行。 访问http://ip,访问到的是Tomcat的主页面http://ip:8080。 Nginx+JDK8+Tomcat 访问:http://192.168.71.167/,看到的是Tomcat的首页。 根据访问的路径跳转到不同的服务器中去。 访问http://ip:9001/edu 直接跳到http://127.0.0.1:8080/edu 访问http://ip:9001/vod 直接跳到http://127.0.0.1:9090/vod Nginx+JDK8+配置两个Tomcat,Tomcat的配置不再讲述。 访问http://192.168.71.167:9001/edu/a.html跳到了http://127.0.0.1:8080/edu/a.html页面。 访问http://192.168.71.167:9001/vod/a.html跳到了http://127.0.0.1:9090/vod/a.html页面。 假如Nginx代理服务器Server的配置为:192.168.71.167:9001,跳到:127.0.0.1:8080,访问者的IP为:192.168.71.200:20604。 通过访问http://192.168.71.167/edu/a.html,实现负载均衡的效果,平均分摊到8080和8081端口中。 Nginx+JDK8+2台Tomcat,一台8080,一台8081。 访问:http://192.168.71.167/edu/a.html,8080和8081交替访问。 1 轮询(默认) 每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。 2 weight weight代表权重,默认为1,权重越高被分配的客户端越多。 指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。 3 ip_hash 每个请求按访问IP的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题,示例如下: 4 fair(第三方) 按后端服务器的响应时间来分配请求,响应时间短的优先分配。 访问图片:http://192.168.71.167/image/1.jpg 访问页面:http://192.168.71.167/www/a.html 访问目录:http://192.168.71.167/image/(因为设置了autoindex on) 两台机器,每台机器都装有keepalived+Nginx+Tomcat。 主备keepalived服务器中只有master一台机器会出现VIP地址,否则会出现脑裂问题。 【提示】脚本要加+x的执行权限:chmod +x chk_nginx.sh 在Nginx里把虚拟IP配置进去即可。 一个Nginx是由一个master进程和多个worker进程组成的。 客户端发送请求到Master,然后给worker,再由这些work争抢处理这个请求。 1 可以使用nginx -s reload进行热部署方式; 2 每个worker是独立的进程,如果有其中的一个worker出现了问题,其他worker独立的继续进行争抢,实现请求的过程,不会造成服务的中断; Nginx和Redis类似,都采用了io多路复用机制。每个worker进程都可以把CPU发挥到极致,一般来说worker数和服务器的CPU数相等是最为适宜的。 发送请求:访问静态资源占用2个连接,反向代理占用4个连接。 【温馨提示】

一、Nginx概念

Nginx是一个高性能的http和反向代理服务器,特点是占用内存少,并发能力强,事实上Nginx的并发能力确实在同类型的网页服务器中表现较好

Nginx专为性能优化而开发,性能就是其最重要的考量,实现上非常注重效率,能经受高负载的考验,有报告表明能支持高达50000个并发连接数

二、Nginx配置文件

第一部分全局块

从配置文件开始到events之间的内容,主要会设置一些影响Nginx服务器整体运行的配置指令,比如worker_processes 1; worker_processes值越大,可以支持的并发处理量越多

第二部分events块

events块涉及的指令主要影响Nginx服务器与用户的网络连接,比如worker_connections 1024支持的最大连接数

第三部分http全局块

http全局配置的指令包括文件引入、mime-type定义,日志自定义,连接超时时间,单连接请求数上限,server块等

三、反向代理

1、正向代理

在客户端(浏览器)配置代理服务器,通过代理服务器进行互联网访问

2、反向代理

我们只需要将请求发送到代理服务器,有反向代理服务器去选择目标服务器获取数据后,再返回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器地址,隐藏了真实服务器IP地址

配置方式

方式一

方式二指定location规则代理

四、负载均衡

增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡

1、配置两台服务器负载

2、Nginx分配服务器策略

轮询(默认)

每个请求按照时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除

weight

weight代表权重默认为1,权重越高被分配的客户端越多

指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况

ip_hash

每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题

五、动静分离

Nginx动静就是动态请求和静态请求分开,减轻动态服务器的压力

方式一

Nginx配置location规则处理静态请求,可以设置expires静态资源缓存时间

autoindex 列出文件目录

方式二

配置静态服务器和动态服务器分开请求

六、高可用

一台代理服务可能出现down机导致服务不可用,无法保证高可用

高可用架构配置多台服务器比如两台服务器一台正常使用一台用来备份,通过keepalived 心跳机制进行监控当主的服务器down掉立即启用备份服务器保证服务的高可用

安装keepalived 配置keepalived.conf 添加检测脚本 绑定网卡配置虚拟ip

七、Nginx原理

1、工作模式master和worker

2、一个master和多个workers的机制好处?

①可以使用nginx -s reload 热部署,利于nginx热部署操作

②每个worker是独立的进程,如果有其中一个worker出现问题,其他worker独立的继续进行争抢,实现请求过程,不会造成服务中断

需要设置多少个worker

nginx同redis类似都采用了io多路复用机制,每个worker都是一个独立的进程,但每个进程里只有一个主线程,通过异步非阻塞的方式来处理请求,即使是成千上万个请求也不再话下。每个worker的线程可以把一个cpu的性能发挥到极致

所以worker数和服务器的cpu数相等是最为适宜的。少了浪费cup,多了会造成cpu频繁切换上下文带来消耗

3、连接数worker_connection

①发送请求,占用了worker的几个连接数?

2个或者4个

②nginx有一个master,有四个worker,每个worker支持最大的连接数1024,支持最大的并发数是多少?

普通的静态访问最大并发数是:worker_connection * worker_processes / 2

如果是http做反向代理最大并发数是worker_connection * worker_processes / 4


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/659812.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-07-24
下一篇2023-07-24

发表评论

登录后才能评论

评论列表(0条)

    保存