AutoAgents 是一个基于 Rust 开发的生产级多智能体框架,支持云端、边缘设备及 WASM 环境的高性能 AI Agent 编排与执行,提供完整的工具系统、记忆管理和多 Agent 通信能力。
项目概述#
AutoAgents 是由 Liquidos AI Team 开发的生产级多智能体框架,使用 Rust 语言编写(100%),当前版本 V0.3.4。采用双许可模式(MIT License / Apache License 2.0)。
核心能力#
Agent 执行模式#
- ReAct Executor:支持推理-行动循环模式,适合复杂任务分解
- Basic Executor:基础执行器,用于简单任务场景
- Streaming Responses:流式响应输出,提升用户体验
- Structured Outputs:支持 JSON Schema 等结构化输出格式
工具系统#
- Derive Macros:通过
#[tool]和#[agent]宏简化工具与代理定义,减少样板代码 - WASM Sandbox:沙箱化 WASM 运行时执行工具,提供内存安全与隔离保证
记忆系统#
- Sliding Window Memory:滑动窗口记忆,可配置窗口大小
- Extensible Backends:可扩展存储后端,支持 Qdrant 向量存储
多智能体编排#
- Typed Pub/Sub:类型安全的发布订阅通信机制
- Environment:Agent 生命周期管理与协调
- Actor Model:基于 Ractor 的 Actor 模型实现,支持高并发与水平扩展
LLM 提供者支持#
云端提供者:OpenAI、OpenRouter、Anthropic、DeepSeek、xAI、Phind、Groq、Google、Azure OpenAI、MiniMax
本地提供者:Ollama、Mistral-rs、Llama-Cpp
实验性:Burn、Onnx
平台支持#
- Server(服务器端)
- Edge(边缘设备)
- WASM(浏览器环境)
- Android(移动端)
扩展能力#
- Speech-Processing:本地 TTS(Text-to-Speech)和 STT(Speech-to-Text)支持
- Observability:OpenTelemetry 追踪与指标集成
- MCP Integration:支持 Model Context Protocol 集成
典型应用场景#
- 云端 AI Agent 服务:构建高并发、生产级多 Agent 系统
- 边缘与移动端推理:在 Android 或边缘设备上运行本地模型驱动的 Agent
- 安全工具执行:利用 WASM 沙箱运行不可信代码或工具
- Coding Agent:开发具备文件操作能力的代码助手
- 快速原型开发:通过 Derive Macros 和 CLI 快速搭建工作流
模块结构#
AutoAgents/
├── crates/
│ ├── autoagents/ # 主库入口
│ ├── autoagents-core/ # 核心 Agent 框架
│ ├── autoagents-protocol/ # 共享协议与事件类型
│ ├── autoagents-llm/ # LLM 提供者抽象与实现
│ ├── autoagents-telemetry/ # OpenTelemetry 集成
│ ├── autoagents-toolkit/ # 开箱即用工具集合
│ ├── autoagents-mistral-rs/ # Mistral-rs 本地后端
│ ├── autoagents-llamacpp/ # LlamaCpp 本地后端
│ ├── autoagents-speech/ # TTS/STT 语音处理
│ ├── autoagents-qdrant/ # Qdrant 向量存储集成
│ └── autoagents-derive/ # 过程宏
├── examples/ # 示例代码
性能特性#
- Memory Efficient:优化内存使用,适合资源受限环境
- Concurrent:完整 async/await 支持,高效处理并发任务
- Scalable:支持多 Agent 协调的水平扩展
- Type Safe:Rust 类型系统编译时保证,降低运行时错误