为大型语言模型和AI智能体设计的内存操作系统,提供长期记忆、工作记忆和外部记忆的统一管理,支持多模态存储与个性化交互。
一分钟了解#
MemOS是一个专为AI系统设计的内存操作系统,为LLM和AI智能体提供统一的内存管理解决方案。它将长期记忆、工作记忆和外部记忆整合在一起,支持文本、图像、工具轨迹和人格等多种模态的存储与检索,使AI系统能够保持上下文感知并提供个性化交互。开发者可以通过简单的API轻松集成和管理AI的"记忆"能力。
核心价值:将AI的"记忆"结构化、可视化,并提供管理能力,解决AI长期记忆和上下文连贯性问题。
快速上手#
安装难度:中 - 需要配置多个依赖服务(如Neo4j和Qdrant)
# 克隆仓库并安装依赖
git clone https://github.com/MemTensor/MemOS.git
cd MemOS
pip install -r ./docker/requirements.txt
适合我的场景吗?
- ✅ 需要长期记忆能力的AI应用:如个性化助手、智能客服、知识管理助手
- ✅ 多模态AI系统:需要同时处理文本、图像等多种信息的应用
- ✅ 企业级AI部署:需要数据隔离和共享的团队项目
- ❌ 简单单次对话应用:不需要复杂记忆功能的简单问答场景
核心能力#
1. 统一内存API - 简化记忆管理#
通过单一API实现记忆的添加、检索、编辑和删除,记忆以图结构形式组织,可检查和编辑,而非黑盒嵌入存储。 实际价值:开发者无需处理复杂的底层存储实现,专注于AI应用逻辑,同时保留对记忆系统的完全控制权。
2. 多模态记忆支持 - 全媒体信息处理#
原生支持文本、图像、工具轨迹和人格等多种模态的记忆,在同一个记忆系统中一起检索和推理。 实际价值:AI系统能够同时理解并处理多种类型的信息,如对话中的图片引用、用户过去的工具使用习惯等,实现更自然的交互。
3. 多立方体知识库管理 - 灵活的知识组织#
将多个知识库作为可组合的记忆立方体进行管理,支持用户、项目和代理之间的隔离、可控共享和动态组合。 实际价值:企业可以按项目或用户隔离数据,同时支持跨项目知识共享,既保护隐私又促进协作。
4. 异步内存调度 - 高性能稳定运行#
通过MemScheduler实现毫秒级延迟的异步内存操作,确保高并发环境下的生产稳定性。 实际价值:在高并发应用场景中保持系统响应速度和稳定性,不会因内存操作阻塞整个AI系统。
5. 记忆反馈与修正 - 持续优化记忆#
使用自然语言反馈来完善记忆,可以随时间纠正、补充或替换现有记忆。 实际价值:AI系统能够根据用户反馈持续学习和改进记忆准确性,减少"AI幻觉"问题。
技术栈与集成#
开发语言:Python 主要依赖:Neo4j(图数据库)、Qdrant(向量数据库)、Redis(任务调度)、OpenAI API 集成方式:API / SDK
生态与扩展#
- 插件/扩展:支持MCP(MemOS Control Protocol)协议,可扩展内存删除和反馈功能
- 集成能力:与BochaAISearchRetriever和NebulaGraph等外部系统集成,增强搜索和知识管理能力
维护状态#
- 开发活跃度:活跃开发,频繁发布新版本(已发布v2.0和v1.0.0等多个版本)
- 最近更新:近期发布v2.0"星尘"版本,引入多项重大功能
- 社区响应:拥有活跃的社区支持,包括GitHub讨论、Discord和微信群组
文档与学习资源#
- 文档质量:全面
- 官方文档:https://memtensor.github.io/MemOS/
- 示例代码:提供基本用法示例和部署指南