发现 AI 代理的未来

火山引擎智能体开发套件 (VeADK)

收录于 2026年2月25日
智能体与应用工具
开源
Python工作流自动化大语言模型MCPAI代理智能体框架LiteLLMSDK智能体与应用工具模型与推理框架开发者工具/代码协议/API/集成

火山引擎官方开源的 Python 智能体开发套件,深度集成企业级记忆、工具链与云原生部署能力,兼容 Google ADK 与 LiteLLM 生态,支持 MCP/A2A 协议。

项目定位#

VeADK 是火山引擎官方开源的智能体开发套件,以 Python 为主要开发语言(95%),定位为连接火山引擎基础设施的"胶水层"与开发标准层。项目旨在解决企业级 AI 应用开发中模型接入复杂、记忆/知识库管理割裂、工具调用缺乏标准、以及从开发到生产的部署观测链路冗长等痛点。

核心特性

  • 多生态兼容:与 Google ADK 实现完全兼容,支持现有项目无缝迁移;兼容 LiteLLM 模型推理服务;支持 OpenAI API 兼容的模型服务
  • 记忆与知识库:短期记忆基于 MySQL/PostgreSQL 持久化存储;长期记忆依托 Viking DB、云搜索服务构建,支持向量检索;知识库以 LlamaIndex 为核心处理入口
  • 丰富工具链:Web Search、图片/视频生成、代码沙箱、飞书 Lark 集成、AI 数据湖服务 LAS
  • 协议支持:原生支持 MCP (Model Context Protocol) 及 A2A (Agent-to-Agent) 协议
  • 云原生部署:整合 VeFaaS 函数计算、API 网关、CloudEngine,支持 Docker 镜像与代码包一键部署
  • 企业级安全:集成 AgentKit Identity,支持 IdP (SAML/OIDC)、第三方凭据托管、基于属性的动态授权
  • 可观测性:集成 CozeLoop、APMPlus、TLS,支持 Tracing 追踪与在线评测

架构设计#

基座架构:基于 google-adk (>=1.19.0) 构建,复用 Google ADK 的智能体架构设计

推理层:通过 litellm (>=1.74.3) 实现模型推理统一封装,底层连接火山引擎 ARK 或其他 OpenAI 兼容服务

协议层:集成 a2a-sdk (Agent2Agent) 与 mcp (Model Context Protocol) 实现跨智能体与工具交互

记忆管理:分层设计,通过 psycopg2/pymysql 处理关系型数据(短期),通过 vikingdb-python-sdk 处理向量数据(长期)

安装与使用#

环境要求:Python >= 3.10(推荐 3.12)

安装方式

# PyPI 稳定版
pip install veadk-python

# 扩展功能
pip install veadk-python[extensions]

# 源码安装
uv venv --python 3.12
uv sync
uv pip install -e .

# Docker 部署
veadk-cn-beijing.cr.volces.com/veadk/veadk-python:latest

快速示例

from veadk import Agent
import asyncio

agent = Agent()
res = asyncio.run(agent.run("hello!"))
print(res)

CLI 工具

  • veadk init: 初始化演示项目
  • veadk deploy: 部署到火山引擎 VeFaaS 平台
  • veadk prompt: 通过 PromptPilot 优化提示词

关联服务#

  • 计算:VeFaaS 函数计算
  • 模型:ARK 模型推理平台(doubao 系列模型)
  • 数据:LAS AI 数据湖、Viking DB 向量库
  • 工具:PromptPilot 提示词优化、CozeLoop 观测与评测

开源协议#

Apache-2.0 License

当前版本#

0.5.22(截至调研时间,项目处于活跃开发状态)

保持更新

获取最新的 AI 工具和趋势,直接发送到您的收件箱。没有垃圾邮件,只有智能。