macOS 原生 AI 边缘运行时,通过统一 API 聚合本地 MLX 与云端模型,内置 MCP 服务、记忆系统及自动化工具链,构建本地优先的智能体基础设施。
项目概述#
Osaurus 是由 Dinoki Labs 开发的 macOS 原生 AI 边缘运行时,专为 Apple Silicon (M1+) 设计。它作为常驻后台的运行时,利用 MLX 框架高效运行本地模型(Llama、Qwen、Gemma、Mistral 等),同时无缝连接 OpenAI、Anthropic、OpenRouter 等云端服务。
核心能力#
模型运行时#
- 本地推理:基于 MLX Runtime 在 Apple Silicon 上优化推理
- 云端聚合:支持 Anthropic、OpenAI、OpenRouter、Ollama、LM Studio
- API 兼容:提供 OpenAI (
/v1/chat/completions)、Anthropic (/messages)、Ollama (/chat) 格式端点
MCP 协议支持#
- MCP Server:将内置工具暴露给 Cursor、Claude Desktop 等客户端
- Remote MCP Providers:连接外部 MCP 服务器并聚合工具
智能体系统#
- 多 Agent 支持:创建特定任务的助手,独立配置 Prompt、模型、工具
- 四层记忆架构:User Profile、Working Memory、Conversation Summaries、Knowledge Graph
- 混合搜索:BM25 + 向量嵌入
工具与插件#
- 20+ 原生插件:Filesystem、Browser、Git、Search、Mail、Calendar、Vision 等
- 支持从中央注册表安装或创建自定义插件
自动化功能#
- Schedules:定时执行 AI 任务
- Watchers:监控文件夹变化触发任务
- Work Mode:自主多步任务执行
语音功能#
- 基于 FluidAudio 的本地实时转录
- VAD 模式支持唤醒词激活
- 全局热键将语音转录到任何应用
安装方式#
# Homebrew 安装
brew install --cask osaurus
# 或从 GitHub Releases 下载
# https://github.com/osaurus-ai/osaurus/releases
快速开始#
osaurus serve # 启动服务器 (默认端口 1337)
osaurus ui # 打开菜单栏 UI
osaurus run llama-3.2-3b-instruct-4bit # 交互式聊天
MCP 客户端配置#
{
"mcpServers": {
"osaurus": {
"command": "osaurus",
"args": ["mcp"]
}
}
}
代码集成示例#
from openai import OpenAI
client = OpenAI(base_url="http://127.0.0.1:1337/v1", api_key="osaurus")
response = client.chat.completions.create(
model="llama-3.2-3b-instruct-4bit",
messages=[{"role": "user", "content": "Hello!"}]
)
适用场景#
- 个人 AI 中枢:为 MCP 客户端提供统一工具和模型网关
- 自动化工作流:定时任务、文件监控、自动处理
- 多模型开发调试:单一端点切换不同 LLM
- 隐私敏感型助手:本地模型处理敏感数据
系统要求#
- macOS 15.5+
- Apple Silicon (M1 或更新)
- Xcode 16.4+ (从源码构建)
环境变量#
OSU_PORT:自定义服务端口OSU_MODELS_DIR:自定义模型存储路径 (默认~/MLXModels)