求助-安装社区版-单机环境,ocp-express报错

@论坛小助手

【 使用环境 】生产环境,64G内存,300G/obdata 200G/obredo 150G/obhome
【 OB or 其他组件 】
【 使用版本 】4.2.1
【问题描述】部署集群正常,启动集群时,到了OCP-express步骤失败
【复现路径】
在启动到 Start ocp-express时长时间等待后失败
失败的内容为:connect failed

使用obclient -h127.0.0.1 -P2881 -uroot -p’xxxx’ -Doceanbase -A 可以登录
使用obclient -h127.0.0.1 -P2881 -uroot@ocp_meta -p’xxxx’ -Doceanbase -A可以登录
使用obclient -h127.0.0.1 -P2883 -uroot@ocp_meta -p’xxx’ -Doceanbase -A无法登录
使用obclient -h127.0.0.1 -P2883 -uroot -p’xxxx’ -Doceanbase -A无法登录

以下是相关内容:

部署的命令:

[admin@iBSM-2Q-SER obsetup_file]$ obd cluster deploy ob_ibsm -c ibsm-single-with-obp-obt-opc.yaml
±-------------------------------------------------------------------------------------------+
| Packages |
±-------------±--------±-----------------------±-----------------------------------------+
| Repository | Version | Release | Md5 |
±-------------±--------±-----------------------±-----------------------------------------+
| oceanbase-ce | 4.2.1.9 | 109000032024092015.el7 | 2d2109a5da1b037403c50d6351649688eae62d7c |
| obproxy-ce | 4.3.1.0 | 4.el7 | 835f4803c1f4da186439323b66c51db4662678a3 |
| obagent | 4.2.2 | 100000042024011120.el7 | 19739a07a12eab736aff86ecf357b1ae660b554e |
| ocp-express | 4.2.2 | 100000022024011120.el7 | 09ffcf156d1df9318a78af52656f499d2315e3f7 |
±-------------±--------±-----------------------±-----------------------------------------+
Repository integrity check ok
Load param plugin ok
Open ssh connection ok
Parameter check ok
Cluster status check ok
Initializes observer work home ok
Initializes obproxy work home ok
Initializes obagent work home ok
Initializes ocp-express work home ok
Remote oceanbase-ce-4.2.1.9-109000032024092015.el7-2d2109a5da1b037403c50d6351649688eae62d7c repository install ok
Remote oceanbase-ce-4.2.1.9-109000032024092015.el7-2d2109a5da1b037403c50d6351649688eae62d7c repository lib check ok
Remote obproxy-ce-4.3.1.0-4.el7-835f4803c1f4da186439323b66c51db4662678a3 repository install ok
Remote obproxy-ce-4.3.1.0-4.el7-835f4803c1f4da186439323b66c51db4662678a3 repository lib check ok
Remote obagent-4.2.2-100000042024011120.el7-19739a07a12eab736aff86ecf357b1ae660b554e repository install ok
Remote obagent-4.2.2-100000042024011120.el7-19739a07a12eab736aff86ecf357b1ae660b554e repository lib check ok
Remote ocp-express-4.2.2-100000022024011120.el7-09ffcf156d1df9318a78af52656f499d2315e3f7 repository install ok
Remote ocp-express-4.2.2-100000022024011120.el7-09ffcf156d1df9318a78af52656f499d2315e3f7 repository lib check ok
ob_ibsm deployed
Please execute obd cluster start ob_ibsm to start
Trace ID: e19ac4ea-aad8-11ef-ba05-fa163d8684dd
If you want to view detailed obd logs, please run: obd display-trace e19ac4ea-aad8-11ef-ba05-fa163d8684dd

======================================
启动:
[admin@iBSM-2Q-SER obsetup_file]$ obd cluster start ob_ibsm
Get local repositories ok
Search plugins ok
Load cluster param plugin ok
Open ssh connection ok
Check before start observer ok
[WARN] OBD-1011: (127.0.0.1) The recommended value of fs.aio-max-nr is 1048576 (Current value: 65536)

Check before start obproxy ok
[WARN] OBD-4521: The config observer_sys_password in obproxy-ce did not take effect, please config it in oceanbase-ce

Check before start obagent ok
Check before start ocp-express ok
Start observer ok
observer program health check ok
Connect to observer 127.0.0.1:2881 ok
Initialize oceanbase-ce ok
Create tenant ocp_meta ok
Exec oceanbase-ce-4.2.1.9-109000032024092015.el7-2d2109a5da1b037403c50d6351649688eae62d7c import_time_zone_info.py ok
Exec oceanbase-ce-4.2.1.9-109000032024092015.el7-2d2109a5da1b037403c50d6351649688eae62d7c import_srs_data.py ok
obclient -h127.0.0.1 -P2881 -uroot@ocp_meta -Doceanbase -A

Start obproxy ok
obproxy program health check ok
Connect to obproxy ok
Initialize obproxy-ce ok
Start obagent ok
obagent program health check ok
Connect to Obagent ok
Start ocp-express x
[ERROR] 127.0.0.1: failed to connect meta db

[ERROR] ocp-express start failed
Wait for observer init ok
±--------------------------------------------+
| oceanbase-ce |
±----------±--------±-----±------±-------+
| ip | version | port | zone | status |
±----------±--------±-----±------±-------+
| 127.0.0.1 | 4.2.1.9 | 2881 | zone1 | ACTIVE |
±----------±--------±-----±------±-------+
obclient -h127.0.0.1 -P2881 -uroot -p’Uinnova@2024’ -Doceanbase -A

cluster unique id: 289942bf-1f8a-59ee-9de3-c6164bf07086-193614134c1-09010204

±--------------------------------------------+
| obproxy-ce |
±----------±-----±----------------±-------+
| ip | port | prometheus_port | status |
±----------±-----±----------------±-------+
| 127.0.0.1 | 2883 | 2884 | active |
±----------±-----±----------------±-------+
obclient -h127.0.0.1 -P2883 -uroot@proxysys -p’VMeU4y0wwh’ -Doceanbase -A

±-------------------------------------------------------------+
| obagent |
±----------±-------------------±-------------------±-------+
| ip | mgragent_http_port | monagent_http_port | status |
±----------±-------------------±-------------------±-------+
| 127.0.0.1 | 8089 | 8088 | active |
±----------±-------------------±-------------------±-------+
See https://www.oceanbase.com/product/ob-deployer/error-codes .
Trace ID: f077c36e-aad8-11ef-bf54-fa163d8684dd
If you want to view detailed obd logs, please run: obd display-trace f077c36e-aad8-11ef-bf54-fa163d8684dd

======================================
yaml脚本
oceanbase-ce:
servers:
- 127.0.0.1
global:
home_path: /obhome/observer
data_dir: /obdata
redo_dir: /obredo
mysql_port: 2881
rpc_port: 2882
obshell_port: 2886
zone: zone1
cluster_id: 1
memory_limit: 25G
system_memory: 8G
datafile_size: 50G
datafile_next: 10G
datafile_maxsize: 225G
log_disk_size: 160G
cpu_count: 16
production_mode: false
enable_syslog_wf: true
max_syslog_file_count: 200
max_syslog_file_time: 7d
enable_syslog_cycle: true
appname: obcluster
root_password: Uinnova@2024
obproxy-ce:
depends:
- oceanbase-ce
servers:
- 127.0.0.1
global:
listen_port: 2883
prometheus_listen_port: 2884
home_path: /obhome/obporxy
enable_cluster_checkout: false
cluster_name: obcluster
skip_proxy_sys_private_check: true
enable_strict_kernel_release: false
observer_sys_password: Uinnova@2024
obagent:
depends:
- oceanbase-ce
servers:
- 127.0.0.1
global:
home_path: /obhome/obagent
ocp-express:
depends:
- oceanbase-ce
- obproxy-ce
- obagent
servers:
- 127.0.0.1
global:
home_path: /obhome/ocp-express
memory_size: 1G

报错:

[2024-11-25 09:57:15.510] [INFO] Start ocp-express
[2024-11-25 09:57:15.511] [DEBUG] – local execute: cat /obhome/ocp-server/run/ocp-express.pid
[2024-11-25 09:57:15.519] [DEBUG] – exited code 1, error output:
[2024-11-25 09:57:15.520] [DEBUG] cat: /obhome/ocp-server/run/ocp-express.pid: 没有那个文件或目录
[2024-11-25 09:57:15.520] [DEBUG]
[2024-11-25 09:57:15.520] [DEBUG] – local execute: ls /obhome/ocp-server/.bootstrapped
[2024-11-25 09:57:15.529] [DEBUG] – exited code 2, error output:
[2024-11-25 09:57:15.530] [DEBUG] ls: 无法访问 ‘/obhome/ocp-server/.bootstrapped’: 没有那个文件或目录
[2024-11-25 09:57:15.530] [DEBUG]
[2024-11-25 09:57:15.531] [DEBUG] – connect 127.0.0.1 -P2883 -umeta@ocp_meta -p******
[2024-11-25 09:57:17.533] [DEBUG] – connect 127.0.0.1 -P2883 -umeta@ocp -p******
[2024-11-25 09:57:19.536] [DEBUG] – connect 127.0.0.1 -P2883 -umeta@ocp_meta -p******
[2024-11-25 09:57:21.535] [DEBUG] – connect 127.0.0.1 -P2883 -umeta@ocp -p******
[2024-11-25 09:57:23.540] [DEBUG] – connect 127.0.0.1 -P2883 -umeta@ocp_meta -p******
[2024-11-25 09:57:25.542] [DEBUG] – connect 127.0.0.1 -P2883 -umeta@ocp -p******
[2024-11-25 09:57:27.552] [DEBUG] – connect 127.0.0.1 -P2883 -umeta@ocp_meta -p******
[2024-11-25 09:57:29.551] [DEBUG] – connect 127.0.0.1 -P2883 -umeta@ocp -p******
[2024-11-25 09:57:31.552] [DEBUG] – connect 127.0.0.1 -P2883 -umeta@ocp_meta -p******
[2024-11-25 09:57:33.552] [DEBUG] – connect 127.0.0.1 -P2883 -umeta@ocp -p******

[2024-11-25 10:07:16.088] [ERROR] 127.0.0.1: failed to connect meta db
[2024-11-25 10:07:16.093] [INFO] [ERROR] 127.0.0.1: failed to connect meta db
[2024-11-25 10:07:16.093] [INFO]
[2024-11-25 10:07:16.094] [DEBUG] - sub start ref count to 0
[2024-11-25 10:07:16.094] [DEBUG] - export start
[2024-11-25 10:07:16.094] [DEBUG] - plugin ocp-express-py_script_start-4.2.2 result: False
[2024-11-25 10:07:16.094] [ERROR] ocp-express start failed

【备注】基于 LLM 和开源文档 RAG 的论坛小助手已开放测试,在发帖时输入 [@论坛小助手] 即可召唤小助手,欢迎试用!

1 个赞

根据文档库中的信息,OCP Express 在启动过程中尝试连接 MetaDB 失败,这可能是由于以下几个原因导致的:

  1. MetaDB 未正确初始化

    • 确保在启动 OCP Express 之前,MetaDB 已经被正确创建并初始化。根据您的日志,MetaDB 应该是在 ocp_meta 租户中创建的。
    • 您可以手动检查 MetaDB 是否存在并可以连接:
      obclient -h127.0.0.1 -P2881 -uroot@ocp_meta -p'Uinnova@2024' -Doceanbase -A
      
  2. 连接信息配置错误

    • 确保 ocp-express 的配置文件中,连接 MetaDB 的信息(主机 IP、端口、用户名、密码)是正确的。
    • 检查 ocp-express 的配置文件,确保 meta_db 相关的配置项正确无误。
  3. 网络问题

    • 确保 ocp-express 能够通过网络连接到 MetaDB。您可以尝试从 ocp-express 所在的机器上 ping MetaDB 的 IP 地址,确保网络连通性。
    • 检查防火墙设置,确保没有阻止 ocp-express 与 MetaDB 之间的通信。
  4. 权限问题

    • 确保 ocp-express 使用的连接账号具有足够的权限来访问 MetaDB。
    • 您可以登录到 MetaDB 并检查用户权限:
      SHOW GRANTS FOR 'meta'@'ocp_meta';
      
  5. 日志分析

    • 查看 ocp-express 的日志文件,获取更详细的错误信息。日志文件通常位于 home_path 目录下的 logs 文件夹中。
    • 您可以使用以下命令查看日志:
      tail -f /obhome/ocp-express/logs/ocp-express.log
      
  6. OCP Express 版本兼容性

    • 确保 ocp-express 的版本与 oceanbase-ce 的版本兼容。根据您的日志,oceanbase-ce 的版本是 4.2.1.9,ocp-express 的版本是 4.2.2。

如果您已经检查了上述所有可能的原因,但问题仍然存在,建议您联系 OceanBase 的官方技术支持团队,获取进一步的帮助。希望这些信息能帮助您解决问题。

更多信息请查看:

  1. 使用图形化界面部署 OCP
  2. 信息采集概述
  3. OCP 多集群模式开关
  4. Clog 同步检查
  5. 0001 ~ 3999

看一下ob集群启动成功了么。如果成功了登录root@sys租户查看一下 DBA_OB_TENANTS看看ocp_meta租户创建成功了么

obclient -h -P2881 -uroot -p’’ -Doceanbase -A 可以登录
要怎么查看ocp_meta?

查看系统视图oceanbase. DBA_OB_TENANTS
黑屏化登录试试租户obclient -h127.0.0.1 -P2881 -uroot@ocp_meta -Doceanbase -A

select * from DBA_OB_TENANTS
结果看到有
1 sys SYS
1001 META$1002 META
1002 ocp_meta USER

根据您提供的信息,您已经成功连接到 OceanBase 数据库,并且可以看到 ocp_meta 租户。接下来,您需要切换到 ocp_meta 租户并查看其内容。以下是具体步骤:

  1. 连接到 OceanBase 数据库
    您已经成功连接到 OceanBase 数据库,可以使用以下命令:

    obclient -h127.0.0.1 -P2881 -uroot -p'Uinnova@2024' -Doceanbase -A
    
  2. 切换到 ocp_meta 租户
    使用 ALTER SESSION 命令切换到 ocp_meta 租户:

    ALTER SESSION SET ob_tenant = ocp_meta;
    
  3. 查看 ocp_meta 租户中的表
    切换到 ocp_meta 租户后,您可以使用 SHOW TABLES 命令查看该租户中的表:

    SHOW TABLES;
    
  4. 查询特定表的数据
    如果您知道具体的表名,可以直接使用 SELECT 语句查询数据。例如,假设您要查询 some_table 表的数据:

    SELECT * FROM some_table;
    

完整的步骤如下:

# 连接到 OceanBase 数据库
obclient -h127.0.0.1 -P2881 -uroot -p'Uinnova@2024' -Doceanbase -A

# 切换到 ocp_meta 租户
ALTER SESSION SET ob_tenant = ocp_meta;

# 查看 ocp_meta 租户中的表
SHOW TABLES;

# 查询特定表的数据
SELECT * FROM some_table;

如果您不确定 ocp_meta 租户中有哪些表,可以使用 SHOW TABLES 命令列出所有表,然后选择您感兴趣的表进行查询。

希望这些步骤能帮助您成功查看 ocp_meta 租户中的数据。如果有任何其他问题,请随时提问。

检索到的文档如下:

  1. 使用图形化界面部署 OCP
  2. 监控指标概述
  3. ob_host_monitordb_disconnected OCP-Agent 无法连接 monitordb
  4. 查看主机详情
  5. 验证凭据
  6. 管理负载均衡
  7. OCP 系统常见问题
  8. 3000.deallocate-prepare-of-mysql-mode.md
  9. 3850.drop-tablespace-of-mysql-mode.md
  10. 2800.create-user-of-mysql-mode.md
  11. 9000.update-of-mysql-mode.md
  12. 2200.create-external-table-of-mysql-mode.md
  13. 2251.create-materialized-views-log-of-mysql-mode-in-sql.md
  14. 1700.alter-tablegroup-of-mysql-mode.md

(小助手的答复已结束,如未能解决您的问题,请继续提问并等待其他同学的回复,谢谢!)

可以登录 obclient -h127.0.0.1 -P2881 -uroot@ocp_meta -p’系统生成的密码’ -Doceanbase -A
查询 select * from oceanbase.DBA_OB_TENANTS;

1002 ocp_meta USER

是否有ocp-express 不能配置127.0.0.1的问题?是否要写服务器的对外IP地址?
我试着吧127.0.0.1 改成其他地址也不行
是不是和obproxy无法登录有关?

要提前安装好 java

yum install java-1.8.0-openjdk

配置好环境变量

export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk
export PATH=$JAVA_HOME/bin:$PATH

目前不建议使用ocp-express了,后续支持力度越来越弱了,建议部署OCP