面向 AI Agent 的 token 高效 MCP 服务器,基于 tree-sitter AST 解析实现 70+ 语言符号级精准代码检索,代码阅读 token 消耗降低 95%+,提供 20+ 种结构化分析工具覆盖变更影响、调用图、死代码检测、架构拓扑等场景。
jCodeMunch MCP 是一个专为 AI Agent 设计的代码理解与检索服务器,遵循 MCP(Model Context Protocol)标准。其核心架构原则是"检索精度优于暴力上下文扩展",通过 tree-sitter 对 70+ 种编程语言进行 AST 解析,提取函数、类、方法、常量、类型等符号并建立字节偏移索引,实现按需精确提取代码片段,避免暴力全文读取。
在 token 效率方面,官方基准测试(express、fastapi、gin 三个仓库,15 次任务运行)显示总 token 消耗从 1,865,210 降至 92,515,降低 95% 以上。此外,MUNCH 紧凑编码机制通过路径前缀压缩和字典列表打包,中位数节省 45.5% 字节,峰值 55.4%。
项目提供 20+ 种结构化分析工具,涵盖变更影响范围分析(get_blast_radius)、N 层调用图追踪(get_call_hierarchy)、继承链遍历(get_class_hierarchy)、死代码检测(find_dead_code)、循环依赖检测(get_dependency_cycles)、逻辑模块拓扑发现(get_tectonic_map)、外部信号传播路径追踪(get_signal_chains)、跨语言 AST 模式匹配(search_ast,含 10 种预设反模式检测器)、符号 git 考古(get_symbol_provenance)、PR 综合风险评分(get_pr_risk_profile)、编辑就绪的重构规划(plan_refactoring)等。这些能力突破了传统 LLM 工具在结构化代码分析上的局限。
安全与隐私方面,项目自动脱敏 AWS/GCP/Azure/JWT/GitHub 等密钥,实施受信文件夹访问控制,采用本地优先存储(默认 ~/.code-index/),数据不离开本机。上下文提供者框架支持 dbt 和 Git 元数据自动丰富,并支持自定义扩展。
项目兼容 Claude Code、Claude Desktop、Cursor、Windsurf、Continue、OpenClaw 等主流 MCP 客户端,提供交互式 init 命令一键完成配置,支持 watch 模式自动重新索引,以及 PreToolUse/PostToolUse/PreCompact 执行钩子和复杂度驱动的模型路由。通过 pip install jcodemunch-mcp 即可安装,也支持 Docker 和 uvx 部署。可选依赖组覆盖 Anthropic、Gemini、OpenAI、语义搜索、本地嵌入、HTTP/SSE 传输、dbt、Groq 等集成场景。
注:项目 README 中引用的官网 http://jcodemunch.com/ 使用 HTTP 协议且未能成功验证其当前可用状态,商业许可采用双重模式(非商业免费;商业需付费,Builder $79 / Studio $349 / Platform $1,999)。