手动部署obproxy,如何在1-1-1集群添加rootservice_list为2-2-2

【 使用环境 】测试环境
【 OB or 其他组件 】obproxy
【 使用版本 】obproxy-3.2.3
【问题描述】手动部署1-1-1集群ob后,obproxy启动时rs_list也是1-1-1。后来ob集群扩容为2-2-2,obproxy的rs_list如何扩容为2-2-2?
【复现路径】问题出现前后相关操作
【问题现象及影响】
[admin@gaolme-ob1 obproxy-3.2.3]$ ps -ef | grep ob
admin 18676 18619 0 14:15 pts/0 00:00:00 grep --color=auto ob
admin 32619 1 2 Jan06 ? 00:35:13 bin/obproxy -r 10.11.144.11:2881;10.11.144.12:2881;10.11.144.13:2881 -p2883 -o enable_strict_kernel_release=false,enable_cluster_checkout=false,enable_metadb_used=false -c njob

MySQL [oceanbase]> select svr_ip,svr_port,zone,status from __all_server;
±-------------±---------±------±-------+
| svr_ip | svr_port | zone | status |
±-------------±---------±------±-------+
| 10.11.144.11 | 2882 | zone1 | active |
| 10.11.144.11 | 3882 | zone1 | active |
| 10.11.144.12 | 2882 | zone2 | active |
| 10.11.144.12 | 3882 | zone2 | active |
| 10.11.144.13 | 2882 | zone3 | active |
| 10.11.144.13 | 3882 | zone3 | active |
±-------------±---------±------±-------+
6 rows in set (0.001 sec)
【附件】

1 个赞

rs list成员就是sys租户所在节点。集群虽然是2-2-2,但sys租户只需要保持1-1-1即可。所以obproxy里的rs list成员不用变。不过写死成员的风险在于如果真实的rs list成员发生变化后,变得一个都不是,那么依赖老的rs list的程序重启可能会启动失败。
所以生产的rs list是通过 ocp的api去存储和读取的。存储在ocp元数据库里。

生产的rs list是通过 ocp的api去存储和读取的。存储在ocp元数据库里。