oblogproxy收集的clog顺序问题?

【产品名称】oblogproxy

【产品版本】未发布版本

【问题描述】oblogproxy收集的clog日志是有序的,那我一个AZ里多个OBServer的clog日志,oblogproxy收集的clog是如何保证顺序?

一个跨分区事务,在提交后,有部分从副本的observer如果因为网络或者什么原因,没有获取到clog,那这个时候oblogproxy收集的日志还准确吗?

背景:一个分区在一个集群中有多个副本,liboblog负责收集一个OB集群各server上的CLOG日志

  1. 顺序保证:(1)一个分区内的数据变更是有序的,且多个副本间保持一致的顺序(不是完全一致的物理日志,只是顺序一致);(2)liboblog收集到一个分布式事务的各分区事务日志后,可以将数据首先按分区顺序排序(sorttransparticipants=1),然后按操作序输出(enableoutputtransorderbysqloperation=1),从而保证稳定的输出顺序。(配置项参见文档,这里好像输出不了下划线导致配置项名字不正确)
  2. 无法获取clog:liboblog保证输出的是完整的分布式事务的数据变更。一个分区有多个副本,liboblog记录每个分区分布在哪些机器上,每个机器服务分区的日志范围。只要有一台服务该分区的server可以连接到,就可以拉到日志。当然还有很多因素影响到liboblog拉日志,如果有分区拉不到日志,liboblog就会卡住不输出。
1 个赞