斯坦福出品的本地优先个人 AI 代理框架,通过五大可组合原语实现离线智能体编排、技能导入与 trace 驱动持续学习,支持 10+ 推理后端与四种交互方式。
OpenJarvis 是由 Stanford Hazy Research 与 SAIL 联合开发的本地优先 AI 代理框架,属于 Intelligence Per Watt 研究计划。其核心设计围绕五大可组合原语展开:Intelligence(模型管理)、Agents(7+ 种代理类型)、Tools(搜索/计算/代码/检索/MCP)、Engine(硬件感知推理运行时)、Learning(trace 驱动的自动改进,含 M1→M2→M3 蒸馏流水线)。
框架所有核心功能离线可用,通过统一 InferenceEngine 接口支持 Ollama、vLLM、SGLang、llama.cpp、MLX 等 10+ 本地推理后端自由切换,云端 API(OpenAI/Anthropic/Gemini/OpenRouter/MiniMax)为可选扩展。内置 GPU 功耗、token 成本、延迟遥测,将能效指标与精度同等对待。
技能系统遵循 agentskills.io 开放标准,可从 Hermes Agent、OpenClaw 或任意 GitHub 仓库导入技能,并支持基于 trace 历史的优化与基准测试。提供 Desktop App (Tauri)、Browser App、CLI、Python SDK 四种交互方式,jarvis serve 可启动 OpenAI 兼容的 FastAPI 流式服务。代理类型覆盖简单对话、ReAct 推理、深度研究、每日简报、定时监控、持久运营等完整场景谱系。
分层架构采用 Registry Pattern,各层通过清洁接口独立可替换。代码由 Python (~80.7%)、Rust (~9.9%)、TypeScript (~8.0%) 三语言协同,Rust 扩展通过 PyO3 绑定。支持 Docker、systemd、launchd 部署,提供 GPU 加速容器镜像(含 ROCm 7.2)。代码中包含 A2A 模块支持代理间通信。
主要语言:Python、Rust、TypeScript。主要平台:macOS、Linux(含 ROCm GPU),Windows 支持情况未明确。采用 Apache 2.0 许可证。项目处于活跃开发阶段(597+ commits,26 contributors),桌面应用版本为 v0.0.1-rc1 早期阶段。