NVIDIA 出品的 LLM 全流程开发管线工具集,覆盖合成数据生成、多后端推理、模型训练与 11 大类 benchmark 评测,支持从单 GPU 到万卡 Slurm 集群的弹性扩展。
Nemo Skills(CLI 命令 ns)是面向大语言模型全生命周期的研发基础设施,由 NVIDIA-NeMo 组织开源(Apache-2.0,Python ≥ 3.10)。项目以"合成数据生成 → 模型训练 → 多维评测"为核心闭环,已产出 OpenMathInstruct-2(14M 对)、OpenMathReasoning、OpenCodeReasoning、Nemotron-Math-v2 等知名数据集与模型。
推理层支持 TensorRT-LLM、vLLM、sglang、Megatron 四种后端,并通过 LiteLLM 统一对接 OpenAI / NVIDIA NIM 等 API 提供商,实现从本地单卡到数万卡 Slurm 集群的一行配置切换。评测层覆盖数学(自然语言/形式语言)、代码、科学知识、指令遵循、长上下文、工具调用、多语言、语音音频、VLM、鲁棒性等 11 大类 benchmark,支持自托管 LLM-as-a-Judge 和跨 Slurm job 并行评测。训练层对接 NeMo-RL 和 verl 框架。此外内置代理式推理能力(并行思维、ToolManager、DirectPythonTool、MCP 协议),以及数据去污染、LibTrace 等辅助管线。
安装采用分层设计:完整安装含全部功能,core/ 子包仅保留推理与评测(适合无集群环境),tools/ 子包仅提供工具运行时。CLI 基于 Typer 构建,prompt 模板通过 YAML 配置管理,集群配置通过 ns setup + cluster_configs/ 统一抽象本地、容器化和 Slurm 三种模式。项目声明仅限研究用途,非 NVIDIA 官方产品。