基于ComfyUI的LLM代理框架,集成了MCP服务器、语音合成、OCR、图像生成等多种AI能力,支持多种LLM模型接入,可构建复杂的AI工作流。
一分钟了解#
ComfyUI LLM Party是一个基于ComfyUI的前端构建的LLM工作流节点集合,让用户能够快速便捷地构建自己的LLM工作流并轻松集成到现有图像工作流中。它从简单的LLM多工具调用、角色设置到构建专属AI助手,从单代理管道到复杂代理交互模式,从接入社交应用到一站式LLM+TTS+ComfyUI工作流,满足不同层次用户需求。
核心价值:通过节点化方式简化复杂AI工作流构建,让各种LLM模型和应用能力可被灵活组合。
快速上手#
安装难度:中 - 需要ComfyUI基础环境,支持多种安装方式
# 使用ComfyUI管理器一键安装
# 或克隆到custom_nodes目录
git clone https://github.com/heshengtao/comfyui_LLM_party.git
# 安装依赖
pip install -r requirements.txt
核心能力#
1. 多种LLM接入方式 - 兼容各种AI模型#
- 支持OpenAI格式API调用(包括4o和o1系列)
- 支持本地ollama部署
- 支持GGUF格式本地模型
- 支持VLM视觉语言模型
- 兼容多种API服务(Azure、Grok、Gemini等)
2. 代理工作流系统 - 构建复杂AI交互#
- 多代理管道构建
- 代理-代理径向交互模式
- 代理-代理环形交互模式
3. 多模态能力整合 - 文字语音图像一体化#
- 集成GPT-SoVits、ChatTTS语音合成
- 支持GOT-OCR2.0文本识别
- 集成FLUX图像生成节点
- 支持图像托管服务(sm.ms、imgbb.com)
4. 企业级集成 - 适应多种环境#
- 支持飞书、Discord等社交平台接入
- 支持行业专用词向量RAG和GraphRAG
- 本地知识库管理系统