基于 NVIDIA NeMo Agent Toolkit 构建的企业级研究智能体,支持浅层快速问答与深度多步研究,自动生成带引用的长格式研究报告。
NVIDIA AI-Q Blueprint 是 NVIDIA 官方 AI Blueprint 系列中的企业级研究智能体项目,基于 NeMo Agent Toolkit 和 LangGraph 状态机架构构建。系统通过 Orchestration Node 实现意图分类与自动路由:简单问题走浅层研究路径(有界、快速、工具增强),复杂问题进入深度研究路径(多步规划、迭代检索、长格式报告生成),所有输出均附带可溯源引用。
工作流通过 YAML 配置文件驱动,可零代码调整 Agent 组合、工具选择和模型搭配。默认模型组合为 Nemotron 3 Nano 30B + GPT-OSS 120B,也可切换为 GPT-5.2 等前沿模型。数据源支持 Tavily Web 搜索、Google Scholar 学术搜索、Exa 以及 LlamaIndex 知识层或外部 Foundational RAG 服务。
系统内置 Deep Research Bench(RACE + FACT 评估)和 FreshQA 时效性事实评估基准,支持持续衡量 Agent 输出质量。提供 CLI、Web UI(FastAPI + React)、Docker Compose 和 Helm Chart(Kubernetes)多种运行与部署方式,并可选集成 Phoenix Tracing 进行执行链路追踪。采用 uv workspace monorepo 结构管理,通过 nat.plugins entry-points 注册各 Agent 组件。
Agent 拓扑结构:
Orchestration Node
├── Meta Response(问候、能力说明)
├── Shallow Researcher(有界、快速、工具增强)
├── Deep Researcher(多阶段:规划 → 迭代检索 → 引用管理 → 报告生成)
└── Clarifier(澄清器)
环境要求: Python ≥3.11, <3.14;Node.js 22+(仅 Web UI);包管理器 uv(推荐)或 pip。
关键环境变量:
NVIDIA_API_KEY(必填):NVIDIA NIM API 推理TAVILY_API_KEY(可选):Tavily Web 搜索SERPER_API_KEY(可选):Google Scholar 学术搜索OPENAI_API_KEY(可选):仅config_frontier_models.yml使用
核心配置文件:
config_cli_default.yml:CLI 默认,Nemotron 3 Nano 30B + GPT-OSS 120Bconfig_web_default_llamaindex.yml:Web 默认,含 LlamaIndex 知识检索config_web_frag.yml:Helm 默认,含 Foundational RAGconfig_frontier_models.yml:混合前沿模型,GPT-5.2 编排/规划