大家可能都知道 kubectl
其实没有 restart pod
这个命令,这个主要是由于在 k8s
中 pod
的管理属于 rs
等控制器,并不需要运维手动维护,但有时候,我们修改了 configmap
的配置文件后,希望重启 pod
加载配置,此时就需要 “重启” Pod
。这里说的“重启”是加了引号的,准确地来说,是重建 pod
,给用户的感觉是重启。
下面介绍六种 k8s
里面重启 pod
的方式
方法一:kubectl rollout restart
这个命令是比较推荐的,通过
kubectl rollout restart deployment <deployment_name> -n <namespace>
便可以重建这个deployment下的 pod,和滚动升级类似,并不会一次性杀死Pod,比较平滑。
方法二:kubectl scale
这种方法相对来说,比较粗放,我们可以先将副本调成 0
kubectl scale deployment <deployment name> -n <namespace> --replicas=0
然后再改回目的副本数
kubectl scale deployment <deployment name> -n <namespace> --replicas=10
但这个会中断服务。但两条命令也能解决,下面介绍的就更直接了。
方法三: kubectl delete pod
这个就不解释了
kubectl delete pod <pod_name> -n <namespace>
还是多说一句,此时优雅删除的效果还是有的。再多说一句,直接删 rs
效果也挺好。
方法四:kubectl replace
这种方法是通过更新 Pod
,从触发 k8s
pod
的更新
kubectl get pod <pod_name> -n <namespace> -o yaml | kubectl replace --force -f -
方法五:kubectl set env
通过 设置环境变量,其实也是更新 pod
spec
从而触发滚动升级。
kubectl set env deployment <deployment name> -n <namespace> DEPLOY_DATE="$(date)"
只不过这里通过 kubectl
命令行,当我们通过 API
更新 pod
spec
后一样会触发滚动升级
方法六: kill 1
这种方法就是在容器里面 kill 1 号进程。
kubectl exec -it <pod_name> -c <container_name> --/bin/sh -c "kill 1"
但是但是但是,重要的话说三遍,它有个局限,必须要求你的 1 号进程要 捕获 TERM 信号,否则在容器里面是杀不死自己的.