发现 AI 代理的未来arrow_forward

VeritasGraph

calendar_today收录于 2026年4月23日
category智能体与应用工具
code开源
Python知识库多模态RAG智能体与应用工具文档教程与资源知识管理/检索/RAG企业应用/办公

企业级全栈 GraphRAG 框架,以整页入图取代传统切片,支持 Tree+Graph 双范式检索与可验证归因。

VeritasGraph 是一个企业级知识图谱 RAG 框架,核心理念为"Don't Chunk. Graph."——以整页或整节作为图节点而非传统 500-token 切片,保留文档结构完整性。框架采用 Tree + Graph 双范式检索架构:PageIndex 风格的层级目录树导航与知识图谱语义推理并行,支持跨章节链接与多跳推理,可回答跨文档复杂问题。每个生成声明均提供 100% 可验证归因,可溯源至源文档精确位置,适用于法律、医疗、金融等高合规领域。

检索与推理能力#

  • Tree-based Navigation:PageIndex 风格的层级 TOC 导航,支持跨章节链接(cross-section linking)
  • Graph-based Semantic Search:基于知识图谱连接的语义检索,非单纯向量相似度匹配
  • Multi-hop Reasoning:跨文档、跨章节的复杂推理能力
  • Document-Centric Ingestion:以整页/整节为节点,避免切片丢失上下文

摄入源#

  • PDF:通过 pipeline.ingest_pdf() 或 CLI veritasgraph ingest 摄入
  • YouTube:自动提取字幕,CLI 直接传入 URL
  • 网页文章:CLI 直接传入 URL
  • 纯文本:常规文本摄入
  • 图表/表格:Vision RAG 模式转化为图谱节点

可验证性与可视化#

  • Verifiable Attribution:每个生成声明附带精确归因路径,可溯源至源文档具体位置
  • 交互式图可视化:PyVis 驱动的 2D 图浏览器,实时展示实体、关系与推理路径

部署模式#

模式说明依赖
lite云 API,零配置启动OpenAI 兼容 API Key
local完全离线,Ollama 本地推理Ollama(需 8GB RAM)
full生产级,Docker 一键部署Docker + Neo4j + Ollama

LLM/Embedding 兼容性#

通过 OpenAI 兼容 API 统一抽象,支持混合配置(如 Groq 做 LLM + Ollama 做 Embedding):OpenAI、Azure OpenAI、Groq、Together AI、OpenRouter、LM Studio、vLLM、Ollama。

架构要点#

  • 图引擎层:基于 Microsoft GraphRAG 进行索引和查询,Neo4j 作为图数据库持久化存储
  • 检索层:Tree-based navigation 与 Graph-based semantic search 双路并行
  • 文档处理层:Document-centric ingestion,整页/整节作为单一可检索节点
  • LLM 抽象层:OpenAI 兼容 API 接口,统一对接多种本地/云端 LLM 提供商
  • 可视化层:PyVis 交互式 2D 图浏览器,Gradio 提供 Web UI

安装与快速开始#

pip install veritasgraph
veritasgraph demo --mode=lite

可选依赖:veritasgraph[web](Gradio UI + 可视化)、veritasgraph[graphrag](Microsoft GraphRAG 集成)、veritasgraph[ingest](YouTube & 网页摄入)、veritasgraph[all](全部功能)。

Docker 一键部署(full 模式):

cd docker/five-minute-magic-onboarding
docker compose up --build
# 服务端口:Gradio UI :7860, Neo4j Browser :7474, Ollama API :11434

Python API 示例#

from veritasgraph import VisionRAGPipeline, VisionRAGConfig

# 基础用法
pipeline = VisionRAGPipeline()
doc = pipeline.ingest_pdf("document.pdf")
result = pipeline.query("What are the key findings?")
print(result.answer)

# Document-Centric 模式
config = VisionRAGConfig(ingest_mode="document-centric")
pipeline = VisionRAGPipeline(config)
doc = pipeline.ingest_pdf("annual_report.pdf")
print(pipeline.get_document_tree())
section = pipeline.navigate_to_section("Methodology")

关键环境变量#

变量用途
GRAPHRAG_API_KEYLLM API 密钥
GRAPHRAG_LLM_MODELLLM 模型名
GRAPHRAG_LLM_API_BASELLM API 地址
GRAPHRAG_EMBEDDING_API_KEYEmbedding API 密钥
GRAPHRAG_EMBEDDING_MODELEmbedding 模型名
GRAPHRAG_EMBEDDING_API_BASEEmbedding API 地址

待确认信息#

  • PyPI 包具体版本号与发布日期(页面 JS 渲染限制)
  • 独立官网/文档站 URL(README 提及 "Live documentation" 但未给出链接)
  • 论文正式发表信息(仓库附有 PDF,未见 arXiv 或期刊链接)
  • HuggingFace Space 已部署地址
  • local 模式 GPU 是否为必需项
  • 大规模文档集的性能基准数据

保持更新

获取最新的 AI 工具和趋势,直接发送到您的收件箱。没有垃圾邮件,只有智能。

rocket_launch