发现 AI 代理的未来arrow_forward

LocalGPT

calendar_today收录于 2026年2月24日
category智能体与应用工具
code开源
桌面应用Rust大语言模型RAGAI代理CLI智能体与应用工具模型与推理框架自动化/工作流/RPA知识管理/检索/RAG安全/隐私

基于 Rust 构建的本地优先 AI 助手,具备持久化内存、自主任务执行能力与内核级安全沙箱防护,支持多 LLM 提供商与多界面访问。

项目简介#

LocalGPT 是一款本地设备优先的 AI 助手,采用 Rust 构建为单二进制应用。通过 cargo install localgpt 即可安装,无需 Node.js、Docker 或 Python 依赖。支持 Linux、macOS、Windows 桌面 GUI 以及 Docker/服务器无头模式部署。

核心功能#

持久化内存:基于 Markdown 文件的知识存储体系,包括 MEMORY.md(长期知识)、HEARTBEAT.md(自主任务队列)、SOUL.md(个性与行为指导)。结合 SQLite FTS5 全文搜索与 sqlite-vec + fastembed 本地嵌入实现语义检索。

自主执行:守护进程模式下定期读取 HEARTBEAT.md 执行后台任务,支持可配置的活跃时间窗口(active_hours)。

混合网络搜索:原生提供商搜索透传配合客户端回退机制。

安全设计#

采用多层防护架构:

  • 内核级沙箱:Linux 使用 Landlock LSM + seccomp-bpf,macOS 使用 Seatbelt (SBPL),全平台通过 rlimits 限制资源(120秒超时、1MB 输出上限、50MB 文件上限、64进程限制)
  • 策略签名:LocalGPT.md 使用 HMAC-SHA256 签名防止 AI 自我修改指令
  • 提示注入防护:标记剥离、模式检测、内容边界、受保护文件阻止
  • 审计链:所有安全事件记录到 append-only、hash-chained 审计文件

LLM 提供商支持#

支持 Anthropic (Claude CLI + API)、OpenAI、xAI (Grok)、Ollama、GLM (Z.AI),以及本地 OpenAI 兼容服务器(LM Studio、llamafile、vLLM)。通过 OAuth 支持 Claude Pro/Max、Gemini 订阅制,避免按次付费。

界面支持#

提供 CLI、Web UI、桌面 GUI(eframe/egui)、Telegram 机器人等多种访问方式。另有 localgpt-gen(Bevy 引擎)用于生成可探索的 3D 世界。支持 Discord/WhatsApp 桥接集成。

适用场景#

  • 个人知识管理与长期记忆存储
  • 定时任务、提醒、知识整理等自主执行场景
  • 安全敏感或离线环境下的 AI 问答
  • 通过 Telegram/Discord/WhatsApp 桥接集成到现有工作流

快速开始#

cargo install localgpt          # 安装
localgpt config init            # 初始化配置
localgpt chat                   # 交互式聊天
localgpt daemon start           # 启动守护进程

工作区布局#

<data_dir>/workspace/
├── MEMORY.md      # 长期知识
├── HEARTBEAT.md   # 自主任务队列
├── SOUL.md        # 个性指导
└── knowledge/     # 结构化知识库

开源协议:Apache-2.0

保持更新

获取最新的 AI 工具和趋势,直接发送到您的收件箱。没有垃圾邮件,只有智能。

rocket_launch