面向 AI 智能体与应用的持久化记忆系统,支持混合检索、遗忘曲线加权、多智能体协作与多模态记忆。
PowerMem 是由 OceanBase 团队开源的 AI 持久化记忆系统,旨在解决智能体在跨会话场景中缺乏可靠长期记忆的问题。核心架构采用向量检索 + 全文检索 + 图检索的三路混合召回策略,并引入艾宾浩斯遗忘曲线进行时间衰减加权,在 LOCOMO 基准测试中以 78.70% 准确率、1.44s p95 延迟、约 0.9k Token 消耗显著优于全量上下文方案。
核心能力#
- 智能提取与更新:通过 LLM 从对话/文本中自动提取关键事实,支持智能去重、冲突检测与相关记忆合并(
infer=True默认开启) - 艾宾浩斯遗忘曲线:基于认知科学的时间衰减加权机制,优先检索近期且相关的记忆
- 混合检索:向量检索 + 全文检索 + 图检索三路召回,v0.4.0 起支持稀疏向量
- 子存储与自动路由:Sub Stores 实现数据分区管理,自动查询路由
- 多跳图遍历:用于复杂记忆关系的精准检索
- 多智能体支持:每个 Agent 独立记忆空间(
agent_id),支持跨 Agent 记忆共享与协作,Scope 控制权限 - 多模态:支持文本、图像、音频,图像/音频自动转文本描述后存储
- 用户画像:内置 UserProfile 机制,支持用户画像构建与基于画像的查询改写
接口与工具链#
- Python SDK:
Memory类,核心 API(add / search / update / delete / get_all),支持 Async API - CLI(pmem):记忆操作、配置管理、备份/恢复/迁移、交互式 Shell
- HTTP API Server + Web Dashboard:REST API,Dashboard 可视化管理
- MCP Server:可选,面向 Model Context Protocol 生态
- IDE 集成:VS Code 扩展、Claude Code 插件(可连接 Cursor、Copilot 等)
存储后端#
- SQLite:默认开发用
- OceanBase:生产推荐,支持原生混合搜索;v1.1.0 起支持 Embedded SeekDB(无需独立数据库服务)
- PostgreSQL:支持
LLM / Embedding 提供者#
支持 Qwen、OpenAI、Anthropic 等多个 LLM 提供者,Embedding 模型可配置。
安装与快速开始#
pip install powermem
from powermem import Memory, auto_config
config = auto_config()
memory = Memory(config=config)
memory.add("User likes coffee", user_id="user123")
results = memory.search("user preferences", user_id="user123")
典型场景#
- AI 对话长期记忆(Chatbot / AI 伴侣跨会话记住用户偏好)
- 多智能体协作(客服、销售等不同 Agent 间记忆共享与隔离)
- 个人知识管理(通过 CLI/SDK 管理记忆条目)
- 作为 LangChain / LangGraph / OpenClaw 等框架的记忆后端
性能基准(LOCOMO 数据集)#
| 维度 | PowerMem | 全量上下文方案 |
|---|---|---|
| 准确率 | 78.70% | 52.9% |
| 检索 p95 延迟 | 1.44s | 17.12s |
| Token 消耗 | ~0.9k | ~26k |
最新版本 v1.1.1,采用 Apache License 2.0。