数据迁移问题:通过etl工具迁移数据到OB,数据量很大,迁移中异常中断

通过其它ETL工具写入OB,当写入7000万或者9000万多数据时,报错了,提示 链接超时;

提示内容: please set the variable ob_query_timeout to a larger value an then restart the statement。

这种是需要针对 租户 、表 做什么操作?

ob_query_timeout 用于设置 SQL 最大执行时间,大量数据持续进行,应该要将其值尽可能调整大。取值范围|[0, 3216672000000000]|,单位是微秒,默认值是10000000(单位,微秒)。超时变量的默认值对于 OLTP 类业务来说是合理的,但是对于 OLAP 类业务就不一定适用,这种情况下,用户可以选择在会话级别调整租户超时变量的值,或者使用 SQL Hint 设置查询超时时间。

可以在租户session设置,示例如下
SET ob_query_timeout = 200000000;

也可以在全局设置,示例如下
SET GLOBAL ob_query_timeout = 200000000;

另外涉及事务的,也要将事务有关的超时时间稍微设置大一点。
如ob_trx_timeout、ob_trx_idle_timeout 等

迁移完之后再调整回去

1 个赞