服务器流量突然过高怎么解决

服务器流量突然过高怎么解决,第1张

在使用服务器的过程中,经常会碰到流量异常,时不时的流量很高。遇到这样的情况,可能是以下几点原因:

1.服务器被暴力破解

2.服务器被攻击DD/CC

遇到这种情况,该如何分析呢?

一、首先,可以先登录服务器里面检查服务器日志,看看是否有IP多次异常登录并显示登录失败的请求,如果显示多次登录失败,说明有人正在尝试暴力破解登录你的服务器,占用了你过多的带宽资源。解决办法:把异常请求的IP加入到防火墙的黑名单中;端口改成随机5位,尽量复杂些;密码更改复杂些,安全系数高避免被恶意破解。若已经被暴力破解了,建议重装下系统。不管怎样,预防大于治疗,提前做好安全防护措施是非常有必要的。

二、其次,检查下服务器的80端口连接数,看看80端口连接数是不是很多,这个要结合用户自己平常对访问流量的一个掌握,一般情况下80连接数几百是正常的,假如上千到万了,很有可能就是被攻击导致的流量异常。那如何查看80连接数呢?如何查看80端口连接数:Windows系统:在运行cmd里面输入此命令:netstat -ano|findstr "8080"或者netstat -an |find /c ":80"Linux系统:netstat -nat|grep -i '80'|wc -l

那又有什么解决办法呢。若是被攻击了导致的流量异常,一般情况下服务器商会封掉被攻击的IP,等没有被攻击了,一定时间后会自动解封。这里要判别下是打IP还是打网站,可以把被攻击的IP下的站解析到其他的IP下。若这个换过的IP还是被打,很有可能是网站被攻击,一般情况下都是同行竞争引起的,这个时候建议使用高防类的服务器。若是换了IP,之前的被攻击的IP还是被打,那可能是打IP,可以找服务器商更换IP。这是日常工作总结出来的,欢迎共同交流,一起学习成长哈。

1、大文件的下载会占用很大的流量,并且对于非SCSI硬盘来说,大量文件下载会消耗CPU,使得网站响应能力下降。因此,尽量不要提供超过2M的大文件下载,如果需要提供,建议将大文件放在另外一台服务器上。

2、将文件放在不同的主机上,提供不同的镜像供用户下载,这样一来就可以把几种的流量分散到各台服务器上,减轻主服务器压力,另外访问流量大对服务器带宽和流量也是一个很大的考验,因此,大流量站点需要尽可能的选择大带宽不限流量美国服务器 。

不是木马,是设置问题,下面是流量的控制方法一、Linux 流量控制过程分二种:1、队列控制 即 QOS, 瓶颈处的发送队列的规则控制,常见的有 SFQ PRIO2、流量控制 即带宽控制 , 队列的排队整形, 一般为 TBF HTB二、Linux 流量控制算法分二种:1、无类算法 用于树叶级无分支的队列,例如:SFQ2、分类算法 用于多分支的队列,例如:PRIO TBF HTB三、具体实现: 1. 在网卡上建立 以SFQ算法的限流#tc qdisc add dev eth0 root handle 1: sfq SFQ 参数有 perturb( 重新调整算法间隔 ) quantum 基本上不需要手工调整 : handle 1: 规定算法编号 .. 可以不用设置由系统指定 ..#tc qdisc sh dev eth0 显示算法#tc qd del dev eth0 root 删除 注 : 默认 eht0 支持 TOS 2. 在网卡建立以 TBF算法的限流 #tc qd add dev eth1 root handle 1: tbf rate 256kbit burst 10000 latency 50ms 速率 256kbit 突发传输 10k 最大延迟 50ms #tc -s qd sh dev eth1 统计#tc qd del dev eth1 root 删除3. 在网卡建立 PRIO #tc qdisc add dev eth0 root handle 1: prio # 此命令立即创建了类 : 1:1, 1:2, 1:3 ( 缺省三个子类 ) #tc qdisc add dev eth0 parent 1:1 handle 10: sfq #tc qdisc add dev eth0 parent 1:2 handle 20: tbf rate 20kbit buffer 1600 limit 3000 注 : 此为 TBF 限速的另一写法 , 前文有讲解 . #tc qdisc add dev eth0 parent 1:3 handle 30: sfq4. WEB 服务器的流量控制为 5Mbps,SMTP 流量控制在 3Mbps 上 . 而且二者一共不得超过 6Mbps, 互相之间允许借用带宽 #tc qdisc add dev eth0 root handle 1:0 cbq bandwidth 100Mbit avpkt 1000 cell 8 #tc class add dev eth0 parent 1:0 classid 1:1 cbq bandwidth 100Mbit rate 6Mbit weight 0.6Mbit prio 8 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded 这部分按惯例设置了根为 1:0, 并且绑定了类 1:1. 也就是说整个带宽不能超过 6Mbps. #tc class add dev eth0 parent 1:1 classid 1:3 cbq bandwidth 100Mbit rate 5Mbit weight 0.5Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000 #tc class add dev eth0 parent 1:1 classid 1:4 cbq bandwidth 100Mbit rate 3Mbit weight 0.3Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000 建立了 2 个类 . 注意我们如何根据带宽来调整 weight 参数的 . 两个类都没有配置成"bounded", 但它们都连 接到了类 1:1 上 , 而 1:1 设置了"bounded". 所以两个类的总带宽不会超过 6Mbps. 别忘了 , 同一个 CBQ 下面的子 类的主号码都必须与 CBQ 自己的号码相一致 ! #tc qdisc add dev eth0 parent 1:3 handle 30: sfq #tc qdisc add dev eth0 parent 1:4 handle 40: sfq 缺省情况下 , 两个类都有一个 FIFO 队列规定 . 但是我们把它换成 SFQ 队列 , 以保证每个数据流都公平对待 . #tc filter add dev eth0 parent 1:0 protocol ip prio 1 u32 match ip sport 80 0xffff flowid 1:3 #tc filter add dev eth0 parent 1:0 protocol ip prio 1 u32 match ip sport 25 0xffff flowid 1:46. 过滤器过滤示例 #tc filter add dev eth0 protocol ip parent 10: prio 1 u32 match ip dport 22 0xffff flowid 10:1 在 10: 节点添加一个过滤规则 , 优先权 1: 凡是去往 22 口 ( 精确匹配 ) 的 IP 数据包 , 发送到频道 10:1.. #tc filter add dev eth0 protocol ip parent 10: prio 1 u32 match ip sport 80 0xffff flowid 10:1 在 10: 节点添加一个过滤规则 , 优先权 1: 凡是来自 80 口 ( 精确匹配 ) 的 IP 数据包 , 发送到频道 10:1.. #tc filter add dev eth0 protocol ip parent 10: prio 2 flowid 10:2 在 eth0 上的 10: 节点添加一个过滤规则 , 它的优先权是 2: 凡是上二句未匹配的 IP 数据包 , 发送到频道 10:2.. #tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip dst 4.3.2.1/32 flowid 10:1 去往 4.3.2.1 的包发送到频道 10:1 其它参数同上例 #tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip src 1.2.3.4/32 flowid 10:1 来自 1.2.3.4 的包发到频道 10:1 #tc filter add dev eth0 protocol ip parent 10: prio 2 flowid 10:2 凡上二句未匹配的包送往 10:2 #tc filter add dev eth0 parent 10:0 protocol ip prio 1 u32 match ip src 4.3.2.1/32 match ip sport 80 0xffff flowid 10:1 可连续使用 match, 匹配来自 1.2.3.4 的 80 口的数据包


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/792470.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-08-26
下一篇2023-08-26

发表评论

登录后才能评论

评论列表(0条)

    保存