大家可能都知道 kubectl 其实没有 restart pod 这个命令,这个主要是由于在 k8spod 的管理属于 rs 等控制器,并不需要运维手动维护,但有时候,我们修改了 configmap 的配置文件后,希望重启 pod 加载配置,此时就需要 “重启” Pod。这里说的“重启”是加了引号的,准确地来说,是重建 pod,给用户的感觉是重启。

下面介绍六种 k8s 里面重启 pod 的方式

方法一:kubectl rollout restart

这个命令是比较推荐的,通过

kubectl rollout restart deployment <deployment_name> -n <namespace>

便可以重建这个deployment下的 pod,和滚动升级类似,并不会一次性杀死Pod,比较平滑。

方法二:kubectl scale

这种方法相对来说,比较粗放,我们可以先将副本调成 0

kubectl scale deployment <deployment name> -n <namespace> --replicas=0

然后再改回目的副本数

kubectl scale deployment <deployment name> -n <namespace> --replicas=10

但这个会中断服务。但两条命令也能解决,下面介绍的就更直接了。

方法三: kubectl delete pod

这个就不解释了

kubectl delete pod <pod_name> -n <namespace>

还是多说一句,此时优雅删除的效果还是有的。再多说一句,直接删 rs 效果也挺好。

方法四:kubectl replace

这种方法是通过更新 Pod ,从触发 k8s pod 的更新

kubectl get pod <pod_name> -n <namespace> -o yaml | kubectl replace --force -f -

方法五:kubectl set env

通过 设置环境变量,其实也是更新 pod spec 从而触发滚动升级。

kubectl set env deployment <deployment name> -n <namespace> DEPLOY_DATE="$(date)"

只不过这里通过 kubectl 命令行,当我们通过 API 更新 pod spec 后一样会触发滚动升级

方法六: kill 1

这种方法就是在容器里面 kill 1 号进程。

kubectl exec -it <pod_name> -c <container_name> --/bin/sh -c "kill 1"

但是但是但是,重要的话说三遍,它有个局限,必须要求你的 1 号进程要 捕获 TERM 信号,否则在容器里面是杀不死自己的.

References

Kubernetes

最后修改:2024 年 11 月 20 日
如果觉得我的文章对你有用,请随意赞赏