大家好,我们正在发起 PowerMem 的一轮公开内测,邀请对 AI 应用 / Agent 长期记忆、向量检索与本地/混合部署 感兴趣的开发者一起体验、反馈、共创。
一、项目简介
PowerMem 是一套面向 AI 应用的智能记忆基础设施:结合向量检索、全文与图检索等混合能力,并引入艾宾浩斯遗忘曲线等机制,帮助 Agent 持久记住对话、偏好与上下文,同时支持多 Agent 隔离与共享、权限与隐私等能力。项目提供 Python SDK、CLI(pmem)、HTTP API + Dashboard、MCP Server,并可与 OpenClaw、LangChain、LangGraph 等集成。
本次内测版本:PowerMem 1.1.0(2026-04-02)
本版本最重要的变化是接入 pyseekdb,支持 OceanBase 向量存储下的嵌入式 seekdb:在本地指定数据目录即可运行,无需单独部署数据库服务,降低「从 0 到能跑」的环境成本。
官方发布说明:PowerMem 1.1.0 Release
当前阶段,我们重点关注它在以下场景中的可用性:
-
本地/离线友好:笔记本、单机 Demo、CI 沙箱——用嵌入式 seekdb 快速起服务,不依赖远程 OceanBase 集群
-
Agent / 多轮对话记忆:长期记忆写入、检索、更新是否与你的业务流顺畅衔接
-
多种接入方式:SDK、
pmemCLI、API Server、MCP 在嵌入式存储下的端到端体验是否一致、文档是否够用
二、为什么发起这次内测
在更大范围对外宣传与迭代节奏确定之前,我们希望先通过一轮真实开发者内测,重点验证:
-
部署流程是否足够清晰(尤其是嵌入式 seekdb 的配置与目录权限)
-
使用门槛是否合理(Python 版本、依赖、LLM / Embedding 等)
-
在真实场景里是否有明确价值(检索质量、延迟、稳定性)
-
文档、CLI 引导、错误信息是否能把人带到正确配置,而不是卡在黑盒报错
我们会根据本轮内测反馈,安排后续文档补充、示例与正式发布节奏。
三、适合谁参与
如果你符合以下任一情况,欢迎报名:
-
对 Agent 记忆、向量库、OceanBase / seekdb 有兴趣
-
有 客服助手、个人助理、多 Agent 协作、本地私有化 等实际需求
-
愿意试用新项目,并给出可复现的问题或改进建议
-
愿意在群里/讨论区参与共创(场景、API、运维体验等)
我们尤其欢迎:
-
AI 应用 / Agent 开发者(自研框架或 OpenClaw 等生态)
-
关注存储与部署的后端 / 平台 / DBA(嵌入式与远程 OceanBase 对比)
-
独立开发者 / 开源作者(集成、插件、二次封装场景)
四、内测时间
内测 & 反馈时间:2026-04-08 ~ 2026-04-16
五、体验方式 / 部署流程
项目地址:
https://github.com/oceanbase/powermem
1.1.0 版本说明:
https://github.com/oceanbase/powermem/releases/tag/v1.1.0
5.0 官方文档索引(深入查阅)
-
仓库总览(安装、Quick Start、CLI、API、MCP):README.md / README_CN.md
-
入门:入门指南
-
配置项全集:配置指南
-
CLI 参考:CLI 使用指南
-
API Server:API Server 文档
-
MCP:MCP Server 文档
-
配置模板:.env.example(可直接在浏览器打开后复制,或
curl拉取 raw 内容)
5.1 环境准备
-
操作系统:macOS / Linux / Windows 均可(内测欢迎反馈各平台差异)。
-
Python:3.11 及以上(与项目声明一致)。
-
网络:安装
pip install powermem需能访问 PyPI;调用云端 LLM / Embedding 需能访问对应 API(若全程用本地 Ollama 等,则按你的环境为准)。 -
建议:使用虚拟环境,避免与系统 Python 混用。
python3.11 -m venv .venv
# macOS / Linux:
source .venv/bin/activate
# Windows (cmd):
# .venv\Scripts\activate.bat
5.2 获取配置模板与工作目录
任选其一即可:
方式 A(克隆仓库,便于对照文档与示例)
git clone https://github.com/oceanbase/powermem.git
cd powermem
cp .env.example .env
方式 B(已有自己的项目目录)
在该目录下放一份 .env,内容以仓库 .env.example 为模板复制后修改。
后续所有命令默认在含有 .env 的目录下执行,或与 --env-file / 环境变量指定路径一致(见 5.10)。
5.3 安装 PowerMem
pip install -U pip
pip install powermem
说明:
-
嵌入式 seekdb 依赖 pyseekdb,会随
powermem一并安装,一般无需再单独pip install pyseekdb。 -
若需与发布说明完全对齐,可指定版本:
pip install "powermem>=1.1.0"。
安装完成后应可使用:
-
pmem:CLI(1.0.0+) -
powermem-server:HTTP API + Dashboard(若你安装的发行版包含该入口)
可用下面命令粗检:
python -c "import powermem; print('powermem ok')"
pmem --help
5.4 配置 .env:嵌入式 seekdb(OceanBase 存储、无远程库)
打开 .env,在 「Database」 段保证使用 OceanBase,并进入 嵌入式模式(OCEANBASE_HOST 为空):
| 变量 | 嵌入式模式建议 | 说明 |
|---|---|---|
DATABASE_PROVIDER |
oceanbase |
使用 OceanBase 向量存储 |
OCEANBASE_HOST |
留空(不要填 IP/域名) | 留空表示走本地嵌入式 seekdb,而非远程集群 |
OCEANBASE_PATH |
例如 ./seekdb_data
|
本地数据目录;需磁盘可写、空间充足 |
OCEANBASE_PORT |
模板默认如 2881
|
与模板保持一致即可,除非你有明确自定义需求 |
OCEANBASE_USER |
按模板,如 root@sys
|
与嵌入式实例约定一致 |
OCEANBASE_PASSWORD |
自行设定 | 本地嵌入式同样需配置,勿提交真实密钥到公开仓库 |
OCEANBASE_DATABASE |
如 powermem
|
逻辑库名 |
OCEANBASE_COLLECTION |
如 memories
|
集合/表语义,与向量索引配置一致 |
OCEANBASE_EMBEDDING_MODEL_DIMS |
与 Embedding 输出维度一致 | 常见如 1536,必须与下方 EMBEDDING_DIMS / 实际模型一致 |
OCEANBASE_INDEX_TYPE 等 |
可先保持 .env.example 默认 |
嵌入式场景下模板默认偏稳健;无特殊需求不必改 |
注意:同一 .env 里若仍填了 SQLITE_* 等,只要 DATABASE_PROVIDER=oceanbase,实际存储仍由 OceanBase 段决定;为避免误解,内测时建议以 OceanBase 段为准逐项检查。
5.5 配置 .env:LLM 与 Embedding(必填)
智能抽取、向量化检索依赖 LLM 与 Embedding,至少配置以下一类(变量名以 .env.example 为准):
LLM(示例结构)
-
LLM_PROVIDER:如qwen、openai、ollama等 -
LLM_API_KEY:对应厂商 API Key(本地 Ollama 等按文档是否可省略) -
LLM_MODEL:如qwen-plus等 -
若使用非默认网关,再按需设置各厂商的
*_LLM_BASE_URL
Embedding
-
EMBEDDING_PROVIDER:与所用模型一致 -
EMBEDDING_API_KEY、EMBEDDING_MODEL -
EMBEDDING_DIMS:必须与OCEANBASE_EMBEDDING_MODEL_DIMS相同,且与真实 embedder 输出维度一致(不一致会导致写入/检索异常或报错难懂)。
Ollama 用户:1.1.0 起可关注嵌入侧 ollama_base_url 等配置是否与你的本机地址一致(详见 Release 说明)。
更细的参数说明见 配置指南。
5.6 配置校验与交互向导
# 查看当前生效配置(脱敏展示,具体以 CLI 为准)
pmem config show
# 交互式生成/调整 .env,向导会说明嵌入式 seekdb 与远程 OceanBase 的差异
pmem config init
内测反馈欢迎标注:是否仅靠 pmem config init 就能配通,以及哪一步文案仍让人困惑。
5.7 验证:Python SDK(最小闭环)
在当前目录存在 .env 的前提下,新建 try_powermem.py(或与 README 一致的最小示例):
from powermem import Memory, auto_config
config = auto_config()
memory = Memory(config=config)
memory.add("用户喜欢手冲咖啡", user_id="demo_user")
results = memory.search("用户的饮品偏好", user_id="demo_user")
for item in results.get("results", []):
print("-", item.get("memory"))
执行:
python try_powermem.py
若首次运行会在 OCEANBASE_PATH 下创建嵌入式数据文件,请确认该路径可写。
API 选择:嵌入式存储路径上更推荐使用同步 Memory API。若你使用 AsyncMemory,请阅读 v1.1.0 Release 中关于异步能力的说明,并在反馈中写明调用方式。
5.8 验证:CLI
与 SDK 共用同一 .env:
pmem memory add "用户偏好深色模式" --user-id demo_user
pmem memory search "界面偏好" --user-id demo_user
pmem stats --json
可顺带体验 非交互输出、列表截断等是否符合脚本化使用习惯。
5.9 可选:HTTP API Server + Dashboard
与 SDK 同一份.env。在安装包提供 powermem-server 的前提下:
powermem-server --host 0.0.0.0 --port 8000
浏览器访问:
-
Dashboard:
http://localhost:8000/dashboard/ -
OpenAPI 文档:
http://localhost:8000/docs
完整说明:API Server 文档。
5.10 部署检查清单(提交反馈前可自查)
-
[ ] Python ≥ 3.11,
pip show powermem版本 ≥ 1.1.0(若你锁定版本) -
[ ]
DATABASE_PROVIDER=oceanbase,OCEANBASE_HOST为空,OCEANBASE_PATH可写 -
[ ]
OCEANBASE_EMBEDDING_MODEL_DIMS=EMBEDDING_DIMS= 实际 embedding 模型维度 -
[ ] LLM / Embedding 的 Key、模型名、Base URL(若自定义)正确
-
[ ] SDK
add/search或 CLI 等价命令跑通;若走 API/MCP,再测一条读写
5.11 求助与反馈渠道
若在部署或体验中卡住,可在内测群直接反馈;也可开 GitHub Issue:
https://github.com/oceanbase/powermem/issues
请尽量附带:Python 版本、操作系统、DATABASE_PROVIDER、是否嵌入式、OCEANBASE_PATH、关键报错全文或最小复现步骤。
社区交流(Discord):https://discord.com/invite/74cF8vbNEs
六、我们希望重点收集的反馈
1. 你的基本背景
-
角色(应用开发 / 算法 / 运维 / 学生等)与主要技术栈
-
使用场景(例如:个人 Agent、企业内部助手、Demo、评测等)
2. 1.1.0 核心能力:嵌入式 seekdb(pyseekdb)
请尽量覆盖或选择其中若干项体验并反馈:
-
首次部署:从
pip install到第一次add/search成功,总耗时与卡点在哪一步 -
配置理解:
OCEANBASE_HOST为空 +OCEANBASE_PATH指向本地目录,是否与你的直觉一致;pmem config init是否讲清楚 -
数据目录:路径权限、磁盘空间、多项目多目录隔离是否顺手
-
稳定性:长时间运行、反复写入/检索、进程重启后数据是否如预期
-
与远程 OceanBase 对比(若你两者都试过):部署成本、性能体感、功能差异
3. 全链路体验
-
文档:哪一段不够、示例是否可运行、术语是否费解
-
CLI:子命令、帮助文案、非交互输出(如 list 截断)是否满足脚本化使用
-
Embedding / LLM:维度与
OCEANBASE_EMBEDDING_MODEL_DIMS不一致时的报错是否可读;Ollama 等配置是否顺畅(1.1.0 含ollama_base_url等修复) -
API / Dashboard / MCP:是否与 SDK 行为一致,认证与限流(若启用)是否合理
4. 价值判断
-
哪些能力对你最有帮助,哪些暂时用不上
-
你是否愿意在下一个项目里继续用;是否会推荐给同事/社区
-
你认为它最适合的场景与不合适的场景
5. 反馈形式(越具体越好)
-
优先:Issue 链接 或 结构化文字(环境 + 复现步骤 + 期望 vs 实际)
-
欢迎附带:脱敏后的
.env片段(去掉密钥)、日志节选、1~2 段典型 query 与检索结果评价
七、激励机制
-
提交有效反馈(可复现问题或建设性建议):即可获得 100 社区积分
-
提供高价值问题定位、典型案例(含可公开脱敏描述):还可以再获得额外的 OceanBase 实体定制礼物
