基于 Rust 构建的本地优先 AI 助手,具备持久化内存、自主任务执行能力与内核级安全沙箱防护,支持多 LLM 提供商与多界面访问。
项目简介#
LocalGPT 是一款本地设备优先的 AI 助手,采用 Rust 构建为单二进制应用。通过 cargo install localgpt 即可安装,无需 Node.js、Docker 或 Python 依赖。支持 Linux、macOS、Windows 桌面 GUI 以及 Docker/服务器无头模式部署。
核心功能#
持久化内存:基于 Markdown 文件的知识存储体系,包括 MEMORY.md(长期知识)、HEARTBEAT.md(自主任务队列)、SOUL.md(个性与行为指导)。结合 SQLite FTS5 全文搜索与 sqlite-vec + fastembed 本地嵌入实现语义检索。
自主执行:守护进程模式下定期读取 HEARTBEAT.md 执行后台任务,支持可配置的活跃时间窗口(active_hours)。
混合网络搜索:原生提供商搜索透传配合客户端回退机制。
安全设计#
采用多层防护架构:
- 内核级沙箱:Linux 使用 Landlock LSM + seccomp-bpf,macOS 使用 Seatbelt (SBPL),全平台通过 rlimits 限制资源(120秒超时、1MB 输出上限、50MB 文件上限、64进程限制)
- 策略签名:LocalGPT.md 使用 HMAC-SHA256 签名防止 AI 自我修改指令
- 提示注入防护:标记剥离、模式检测、内容边界、受保护文件阻止
- 审计链:所有安全事件记录到 append-only、hash-chained 审计文件
LLM 提供商支持#
支持 Anthropic (Claude CLI + API)、OpenAI、xAI (Grok)、Ollama、GLM (Z.AI),以及本地 OpenAI 兼容服务器(LM Studio、llamafile、vLLM)。通过 OAuth 支持 Claude Pro/Max、Gemini 订阅制,避免按次付费。
界面支持#
提供 CLI、Web UI、桌面 GUI(eframe/egui)、Telegram 机器人等多种访问方式。另有 localgpt-gen(Bevy 引擎)用于生成可探索的 3D 世界。支持 Discord/WhatsApp 桥接集成。
适用场景#
- 个人知识管理与长期记忆存储
- 定时任务、提醒、知识整理等自主执行场景
- 安全敏感或离线环境下的 AI 问答
- 通过 Telegram/Discord/WhatsApp 桥接集成到现有工作流
快速开始#
cargo install localgpt # 安装
localgpt config init # 初始化配置
localgpt chat # 交互式聊天
localgpt daemon start # 启动守护进程
工作区布局#
<data_dir>/workspace/
├── MEMORY.md # 长期知识
├── HEARTBEAT.md # 自主任务队列
├── SOUL.md # 个性指导
└── knowledge/ # 结构化知识库
开源协议:Apache-2.0