OBServer节点的数据量不均匀

我的版本为OB4.3.5,架构为1-1-1,最近连续观察了一周,我们节点的数据量不均匀,其中10.10.100.12节点比梁歪两个节点数据一直多500多G

7 个赞

@论坛小助手

4 个赞

根据您的描述,节点10.10.100.12的数据量明显高于其他两个节点。对于1-1-1架构,由于集群规模较小,负载均衡机制可能无法完全消除节点间的数据量不均问题。您可以考虑以下几个解决方案:

  1. 手动调整Unit分配:检查各节点上的Unit分配情况,如果发现某个节点的Unit过多,可以手动将部分Unit迁移到其他节点。
  2. 调整负载均衡策略:可以尝试调整负载均衡策略,比如设置proxy_route_policyFOLLOWER_FIRST,优先读从节点,减少主节点的压力。
  3. 定期检查和优化:定期检查集群状态和数据分布情况,及时进行优化和调整。
  4. 升级集群规模:如果条件允许,可以考虑增加节点,提高集群的负载均衡能力。

更多信息请查看:

  1. 如何路由到只读型副本查询数据
  2. 负载均衡
4 个赞

学习打卡

2 个赞

很好的OBServer节点的数据量不均匀分享!在实际项目中,我发现社区问答配合OceanBase社区使用效果更好。

2 个赞

集群–资源管理,具体看下副本分布

1 个赞

primary zone是3个平均分布吗

1 个赞

是的,3个Zone的优先级是一样的
image

1 个赞

您好,资源分布,框红的节点的实际存储占用比梁歪两个节点都高

1 个赞

查询下sys的一号日志流是不是在zone1?

1 个赞

辞霜老师好,这个应该怎么查询呢,给一下示例呢

select * from CDB_OB_LS_LOCATIONS where tenant_id=xxx;

老师您好,目前还是节点数据分布不均,以下为执行结果
select * from oceanbase.CDB_OB_LS_LOCATIONS where tenant_id=‘1002’;

CDB_OB_LS_LOCATIONS.rar (3.1 KB)

你去操作系统上 df -h 对比下 三个 机器 哪些文件大? 截图发出来

了解下

老师您好,如下是存储占用详情
10.10.100.12节点:


10.10.100.13节点:

10.10.100.14节点:

select * from gv$ob_servers;

gv_ob_servers.rar (2.6 KB)
老师您好,上面是查询结果

select svr_ip,tenant_id,count(TABLET_ID) from CDB_OB_TABLET_REPLICAS group by svr_ip,tenant_id;
select svr_ip,sum(data_size)/1024/1024/1024 from CDB_OB_TABLET_REPLICAS group by svr_ip;
这样查询看下每个节点的分区是否一样大

image
image
我的业务租户id是1002
image