K8S部署OB社区版4.0启动容器失败,报“persistentvolumeclaim "sapp-ob-test-cn-zone1-0-data-file" not found”

【 使用环境 】 测试环境
【 OB or 其他组件 】
【 使用版本 】社区版4.0
【问题描述】
【复现路径】问题出现前后相关操作
【问题现象及影响】

【附件】


obcluster.yaml文件内容

1 个赞

存储卷已存在并挂载


cd到实际存储目录也正常创建

部署的k8s集群只有1个worker节点,资源充足,obcluster.yaml将3个zone的nodeselector都指定这1个worker节点上了,请问是这个原因导致的吗?必须3个zone放在不同的worker节点?

k8s集群节点资源情况


集群磁盘存储剩余空间充足

可以在k8s中执行kubectl get pods -n obcluster 看下吗


都是observer没有起来, obagent正常运行

执行 kubectl logs ${operator-podname} manager -n oceanbase-system看下operator日志,其中${operator-podname} 就是 ob-operator对应的pod的名字

没有必须3个zone放在不同的worker节点

ob-operator 的镜像 tag是多少
可以执行 kubectl describe pod sapp-ob-test-cn-zone1-0 -n obcluster 看下当前 pod 在做什么

pvc 不存在是会去创建的,正常也是日志中先看如果不存在就去创建的,集群起不来,可以去 observer 的pod里看下 ob 的日志,应该是没起来,ob-operator的日志里应该也有对应的信息

执行
kubectl logs ob-operator-controller-manager-77597b8bd-2pjzl manager -n oceanbase-system
返回日志这样的

镜像的tag是

执行
kubectl describe pod sapp-ob-test-cn-zone1-0 -n obcluster


可以将这个完整log上传一下吗,方便问题定位。同时可以进入 observer容器看一下error
kubectl exec -it pod sapp-ob-test-cn-zone1-0 -n obcluster -c observer bash
cd /home/admin/oceanbase/log
grep ’ ERROR ’ *

你截图的镜像不是ob-operator的,是 kube rbac proxy的


下面这个image的tag对吗?

operator.log (440.8 KB)
这是执行
kubectl logs ob-operator-controller-manager-77597b8bd-2pjzl manager -n oceanbase-system
的完整log,麻烦您了;

看了operator 的日志,发现是ob bootstrap 超时。这个需要查看ob的日志了。需要辛苦一下上传 observer 容器中的日志。进入方式:
kubectl exec -it pod sapp-ob-test-cn-zone1-0 -n obcluster -c observer bash
cd /home/admin/oceanbase/log
辛苦将 log下的日志上传一下。


observer.log (751.5 KB)
rootservice.log (139.6 KB)
这是执行后的两个完整log,麻烦您看一下

看了一下日志中说 “Fail to fallocate block file”,请问 pvc 用的存储是什么类型。

用的nfs,镜像

k8s部署其他服务用此存储,正常在用的。
这是存储类型的yaml文件
rbac.txt (1.9 KB)
class.txt (346 字节)
deployment.txt (1.1 KB)