面向 AI 编码 Agent 的本地优先跨模型持久化记忆系统,通过 MCP 协议提供语义记忆、多 Agent 协调与知识库能力。
OMEGA 是一个面向 AI 编码 Agent 的本地优先持久化记忆系统,当前版本 v1.4.9,以 Python 实现(要求 >= 3.11),采用 Apache-2.0 许可证,处于 Beta 阶段。系统完全本地运行,零云端依赖,基于 SQLite 单文件数据库(sqlite-vec 向量扩展)和 ONNX 本地嵌入模型(约 90MB)构建,检索延迟约 50ms,具备 2198+ 测试用例覆盖。
核心能力围绕 25 个 MCP 工具展开:支持 decision/lesson/error/summary/preference 等多种语义记忆类型的存储与检索,提供自动会话简报、跨会话课程排名、记忆合并去重(consolidate)、聚类摘要、时间线浏览、图遍历等生命周期管理,以及检查点/恢复实现的跨会话任务连续性和定时提醒机制。检索采用语义搜索 + 图遍历 + 上下文重排序的三策略并行融合方案。
omega-pro 扩展模块额外提供:29 个多 Agent 协调工具(文件/分支锁定、会话管理、任务队列与依赖、意图广播、审计日志)、10 个智能 LLM 路由工具(<2ms 意图分类,按场景路由至不同模型)、5 个知识库工具(PDF/Markdown/网页/纯文本摄取与 RAG 检索)、8 个实体注册工具(多实体企业级记忆含关系与层级)和 3 个安全档案工具(AES-256-GCM 加密,macOS Keychain 集成)。
系统通过 MCP stdio 协议与 Claude Code、Cursor、Windsurf、Cline、Codex 等客户端集成,Agent 通过自然语言直接调用工具,无需手动配置。安装后通过 omega setup 一键完成环境初始化、模型下载和 Hook 注入,同时提供完整的 CLI 工具集用于运维管理(status/query/store/timeline/consolidate/compact/backup/validate 等)。架构采用单进程模块化设计,核心引擎与可选模块运行在同一 MCP Server 进程中,无独立守护进程。官网宣称在 LongMemEval (ICLR 2025) 基准上得分 95.4%(待独立复现验证)。
待确认信息: PyPI 包页面未直接验证;Hugging Face 模型卡未确认;omega-pro 许可与定价不明;作者实体 "Kokyō Keishō Zaidan Stichting" 为荷兰基金会法人,背景未进一步核实。