测试环境手动部署三副本集群,设置了log_disk_size为什么初始的clog里的log_pool会有140G

【 使用环境 】生产环境 or 测试环境
【 OB or 其他组件 】
【 使用版本 】
【问题描述】清晰明确描述问题
【复现路径】问题出现前后相关操作
【问题现象及影响】

【附件】
启动节点命令
/home/admin/oceanbase/bin/observer -I 10.228.162.143 -P 2882 -p 2881 -z zone2 -d /vdb/oceanbase/store/obtest -r ‘10.228.162.109:2882:2881;10.228.162.143:2882:2881;10.228.131.29:2882:2881’ -c 10001 -n obtest -o “system_memory=3G,datafile_size=10G,log_disk_size =1G,config_additional_dir=/vdb/oceanbase/data/1/obtest/etc3;/vdb/oceanbase/data/log1/obtest/etc2”

这个好像是为租户创建的单独的日志空间

因为是测试环境,obd可以有yaml文件定义,手动部署的时候,怎么限制大小或者文件数呢

log_disk_size是根据memory_limit配置的大小进行调整的,其对应关系为log_disk_size = memory_limit *3
,log_disk_size =1G 太小了 也可以设置为10G试试看

可以发一下yaml文件

memory_limit数值最低6-8G

手动部署的,10g问题还是一样的

搞定了,log_disk_size = 10G,复制粘贴的时候等于号后面空格要去掉