k8s 的 Failover — Kubernetes(14)steemCreated with Sketch.

in kubernetes •  7 years ago 

接上节,现在模拟 k8s-node2 故障,关闭该节点。

625.png

等待一段时间,Kubernetes 会检查到 k8s-node2 不可用,将 k8s-node2 上的 Pod 标记为 Unknown 状态,并在 k8s-node1 上新创建两个 Pod,维持总副本数为 3。

626.png

当 k8s-node2 恢复后,Unknown 的 Pod 会被删除,不过已经运行的 Pod 不会重新调度回 k8s-node2。

627.png

删除 nginx-deployment

628.png

下一节我们学习如何控制 Pod 运行的位置。

Authors get paid when people like you upvote their post.
If you enjoyed what you read here, create your account today and start earning FREE STEEM!
Sort Order:  

子节点 halt -> 重启就一直失联了, 状态始终是NotReady,
该节点上面也没有容器运行了.
怎么恢复呢?

最后没辙重新部署了一遍
1, NotReady, Kubelet stops reporting node status ->
kubectl delete node xx
kubeadm join
2, 但是又遇到问题
network plugin is not ready: cni config uninitialized
没辙只好全部kubeadm reset 重新部署了

看一下node的日志 journalctl -u kubelet,不排除是bug。

cloudman,你好:
请问halt -h关闭一个节点后,怎样恢复这个节点?

重新开机