将实时数据频繁更新到OceanBase表中,会降低OceanBase性能吗

【 使用环境 】测试环境
【 OB or 其他组件 】
ob3.1.4
【问题描述】
请问将实时数据频繁更新到OceanBase表中,会降低OceanBase性能吗
我们想要将实时的数据更新到OceanBase表中,会不会导致clog或者redo很大从而影响OceanBase性能?是不是不太合适?

【问题现象及影响】

【附件】

意思是不停的往ob中插入数据?
ob插入数据本质上是内存操作,内存以memtable管理数据,memtable到达一定大小后转储成为sstable,转储后的redolog会被回收,redolog的回收也可以通过配置参数控制,我理解只要合理配置,保证clog/datafile 磁盘容量,对其他操作应该不会有太大影响。

对,类似replace into频繁更新表中的数据,可行吗?还是说选用其他noSQL或者内存数据库更合适?

replace 频繁更新一行数据还是表里的数据都会定期更新?这块接楼上老师回复,用 OB 来支持没问题,在部署阶段建议是 data 和 Clog 分开部署,所以一般 Clog 大小不会影响到数据写入性能,另外提到的频繁更新大概是什么样的频次?

不会是一行数据,表中大部分的行都会被更新,频率还是比较高的,要看设备采集频率,例如设备采集的某些数据点变化了,就将表中对应的数据点更新为新的值,我们数据会先进入mq中,我们想把数据实时的更新到ob中,这样即使一张表的数量没有变化,但是对应的redo目录也会不断增加?我这样理解对吗?redo目录会定期清理减小吗

第一个问题:即使表的数据量没变化但是一直更新,redo LOG 也会增加,第二个问题:可以看看这里的介绍:https://www.oceanbase.com/docs/common-oceanbase-database-cn-10000000001700961