排查集群状态异常问题通常从 Node 和 Kubernetes 服务 的状态出发,定位出具体的异常服务,再进而寻找解决方法。集群状态异常可能的原因比较多,常见的有
按照不同的组件来说,具体的原因可能包括
为了维持集群的健康状态,推荐在部署集群时就考虑以下
一般来说,可以首先查看 Node 的状态,确认 Node 本身是不是 Ready 状态
如果是 NotReady 状态,则可以执行 kubectl describe node <node-name> 命令来查看当前 Node 的事件。这些事件通常都会有助于排查 Node 发生的问题。
在排查 Kubernetes 问题时,通常需要 SSH 登录到具体的 Node 上面查看 kubelet、docker、iptables 等的状态和日志。在使用云平台时,可以给相应的 VM 绑定一个公网 IP;而在物理机部署时,可以通过路由器上的端口映射来访问。但更简单的方法是使用 SSH Pod (不要忘记替换成你自己的 nodeName):
接着,就可以通过 ssh 服务的外网 IP 来登录 Node,如 ssh user@52.52.52.52 。
在使用完后, 不要忘记删除 SSH 服务 kubectl delete -f ssh.yaml 。
一般来说,Kubernetes 的主要组件有两种部署方法
使用 systemd 等管理控制节点服务时,查看日志必须要首先 SSH 登录到机器上,然后查看具体的日志文件。如
或者直接查看日志文件
而对于使用 Static Pod 部署集群控制平面服务的场景,可以参考下面这些查看日志的方法。
查看 Kubelet 日志需要首先 SSH 登录到 Node 上。
Kube-proxy 通常以 DaemonSet 的方式部署
由于 Dashboard 依赖于 kube-dns,所以这个问题一般是由于 kube-dns 无法正常启动导致的。查看 kube-dns 的日志
可以发现如下的错误日志
这说明 kube-dns pod 无法转发 DNS 请求到上游 DNS 服务器。解决方法为
如果错误日志中不是转发 DNS 请求超时,而是访问 kube-apiserver 超时,比如
这说明 Pod 网络(一般是多主机之间)访问异常,包括 Pod->Node、Node->Pod 以及 Node-Node 等之间的往来通信异常。可能的原因比较多,具体的排错方法可以参考 网络异常排错指南 。
重启 kubelet 时报错 Failed to start ContainerManager failed to initialise top level QOS containers (参考 #43856 ),临时解决方法是:
该问题已于2017年4月27日修复(v1.7.0+, #44940 )。更新集群到新版本即可解决这个问题。
当 NodeAllocatable 特性未开启时(即 kubelet 设置了 --cgroups-per-qos=false ),查看 node 的事件会发现每分钟都会有 Failed to update Node Allocatable Limits 的警告信息:
如果 NodeAllocatable 特性确实不需要,那么该警告事件可以忽略。但根据 Kubernetes 文档 Reserve Compute Resources for System Daemons ,最好开启该特性:
开启方法为:
kube-proxy 报错,并且 service 的 DNS 解析异常
解决方式是安装 conntrack-tools 包后重启 kube-proxy 即可。
正常情况下,Dashboard 首页应该会显示资源使用情况的图表,如
如果没有这些图表,则需要首先检查 Heapster 是否正在运行(因为Dashboard 需要访问 Heapster 来查询资源使用情况):
如果查询结果为空,说明 Heapster 还未部署,可以参考 https://github.com/kubernetes/heapster 来部署。
但如果 Heapster 处于正常状态,那么需要查看 dashboard 的日志,确认是否还有其他问题
查看 HPA 的事件,发现
这说明 metrics-server 未部署,可以参考 这里 部署。
服务器连接异常,一般是网络,系统,软件,攻击,硬件损坏等原因。 具体情况具体分析,最简单的方法就是自己检查下你的本地的网络问题,如果不是这个原因其他的可以找你的服务器的服务商来解决的。海腾晋慧娟回答欢迎分享,转载请注明来源:夏雨云
评论列表(0条)