用load data infile从csv往表里导数据,每次导入1717200条数据后就报timeout错误

这是旁路导入错误的trace log,请看一下:
ob_tmp.log.7z (359.5 KB)

需要检查下数据源 是否分隔符有冲突。 确保按逗号分隔使每行数据个数和表字段数是一样的。

这个new_accounts.csv 之前用常规的load data infile命令导入成功过的

encounter too big row size error,maybe local mutator buf is for optimization(ret=-5199

调整 ob_sql_work_area_percentage 参数为20 看下

或者分批导入

最后用obloader工具将csv数据导入了数据库;只是中间过程会有异常 No memory or reach tenant memory limit 导致部分数据丢失,试了3,4次都是这样

set global ob_sql_work_area_percentage=30; – Default 5

可以调大sql工作区占比。