CREATE TABLE o_origin_file_to_section_compressed (
id bigint(20) NOT NULL AUTO_INCREMENT,
origin_file_id bigint(20) NOT NULL,
title varchar(256) DEFAULT NULL,
content longtext DEFAULT NULL,
modify_date datetime DEFAULT NULL COMMENT ‘修改日期’,
modify_user_id bigint(20) DEFAULT NULL COMMENT ‘修改人id’,
create_date datetime DEFAULT NULL COMMENT ‘创建时间’,
creator_id bigint(20) DEFAULT NULL COMMENT ‘创建人ID’,
use_flag int(11) DEFAULT NULL COMMENT ‘使用标识’,
sort int(11) DEFAULT NULL,
title_md5 varchar(32) DEFAULT NULL,
content_md5 varchar(32) DEFAULT NULL,
db_answer_group_id bigint(20) DEFAULT NULL COMMENT ‘DB端的子库ID’,
PRIMARY KEY ( id),
KEY origin_file_id (origin_file_id),
KEY content_md5 (content_md5),
KEY title_md5 (title_md5)
) content是一个大文本字段 每次查2000条 查询时间最长的到达了30秒 这种应该怎么办 没有连表 查询sql select /*+
USE_PX
PARALLEL(8)
*/ t1.id, t1.origin_file_id, t1.title, t1.content, t1.sort
from o_origin_file_to_section_bak_temp t1
where origin_file_id in ()
全表数据大概在七千万左右
麻烦使用obdiag采集一下相关信息
SQL性能问题, 此处env中的trace_id对应gv$ob_sql_audit的trace_id
obdiag gather scene run --scene=observer.perf_sql --env “{db_connect=’-hxx -Pxx -uxx -pxx -Dxx’, trace_id=‘xx’}”
in里面有多少个