为LLM和AI代理设计的多模态记忆基础设施,通过层级文件系统管理记忆,支持基于嵌入和LLM的双重检索方式。
一分钟了解#
MemU是一个面向未来的AI代理记忆系统,能够接收多模态输入(对话、文档、图像等),将其提取为结构化记忆,并组织成层级文件系统。它支持两种检索方式:基于嵌入的快速检索和基于LLM的深度语义理解检索。
核心价值:将非结构化数据转化为可检索、可进化的结构化记忆,使AI系统能够更好地理解和利用历史信息。
快速上手#
安装难度:中 - 需要Python 3.13+和OpenAI API密钥
# 基础测试(无需数据库)
export OPENAI_API_KEY=your_api_key
cd tests
python test_inmemory.py
# PostgreSQL测试(需要pgvector)
docker run -d --name memu-postgres -e POSTGRES_USER=postgres -e POSTGRES_PASSWORD=postgres -e POSTGRES_DB=memu -p 5432:5432 pgvector/pgvector:pg16
export OPENAI_API_KEY=your_api_key
cd tests
python test_postgres.py
适合我的场景吗?
- ✅ AI助手开发:需要记忆用户偏好、习惯和历史对话的智能助手
- ✅ 客户服务机器人:需要记住客户信息、问题和解决过程的客服系统
- ❌ 简单信息存储:只需要基本CRUD操作,不需要复杂语义理解的应用
核心能力#
1. 层级文件系统 - 结构化记忆管理#
三层架构(资源→项目→类别)提供完整的可追溯性,每层提供 increasingly 抽象化的视图。
实际价值:让记忆从原始数据到结构化信息再到分类摘要,层次分明,便于检索和分析。
2. 双重检索方法 - 灵活查询记忆#
同时支持RAG(嵌入向量搜索)和LLM(深度语义理解)两种检索策略。
实际价值:可以根据速度和精度需求灵活选择检索方式,平衡性能和语义理解深度。
3. 多模态支持 - 统一处理不同内容#
统一处理对话、文档、图像、视频和音频等多种输入类型。
实际价值:AI系统能够从各种来源学习和记忆信息,构建更全面的知识库。
4. 自进化记忆 - 持续优化记忆结构#
记忆结构根据使用模式自动适应和改进。
实际价值:随着使用时间增长,记忆系统会变得更加智能和高效,减少人工维护成本。
技术栈与集成#
开发语言:Python 3.13+ 主要依赖:OpenAI API(可通过配置支持自定义提供商) 集成方式:API / SDK
生态与扩展#
- 多LLM提供商支持:除OpenAI外,支持阿里云通义千问、OpenRouter等多种LLM服务
- 自托管选项:支持本地部署和云端服务两种模式
- 自定义扩展:可通过配置文件灵活添加自定义的LLM和嵌入模型提供商
维护状态#
- 开发活跃度:活跃开发中,有持续的更新和功能增强
- 最近更新:近期有重要功能更新和性能优化
- 社区响应:有活跃的开发社区,提供Discord和Twitter支持渠道
商用与许可#
许可证:Apache 2.0
- ✅ 商用:允许商用
- ✅ 修改:允许修改和分发
- ⚠️ 限制:需保留原始许可证和版权声明
文档与学习资源#
- 文档质量:全面,包含API文档和多个实用示例
- 官方文档:SERVICE_API.md(包含完整API文档)
- 示例代码:提供多个使用场景的完整示例代码