为 AI 编程时代设计的团队协作 MCP 服务器,让所有 AI 助手共享需求文档分析结果与知识库,支持 Axure 原型解析、UI 设计稿查看、团队留言板,打破 AI IDE 孤岛。
Lanhu MCP Server 是一个为 AI 编程时代设计的团队协作 MCP 服务器。
核心能力:
- 需求文档分析:自动解析 Axure 原型,支持开发/测试/快速探索三种分析模式,四阶段工作流确保零遗漏,准确率 >95%
- UI 设计支持:批量下载设计稿、自动提取切图、智能语义化命名
- 团队协作留言板:统一知识库让所有 AI 助手共享上下文,支持任务协作、@飞书提醒、协作者追踪
- 性能优化:基于版本号的智能缓存、增量更新、并发处理
MCP 工具清单:
lanhu_resolve_invite_link:解析邀请链接lanhu_get_pages/lanhu_get_ai_analyze_page_result:获取和分析原型页面lanhu_get_designs/lanhu_get_ai_analyze_design_result:获取和分析 UI 设计图lanhu_get_design_slices:获取切图信息lanhu_say系列工具:留言发布/查看/编辑/删除lanhu_get_members:查看协作者
消息类型设计:
| 类型 | 用途 | 生命周期 |
|---|---|---|
| normal | 普通通知 | 7天后归档 |
| task | 查询任务 | 任务生命周期 |
| question | 需要回答的问题 | 解答后归档 |
| urgent | 紧急通知 | 24小时后降级 |
| knowledge | 知识库 | 永久保存 |
部署方式:
- Docker 部署(推荐):
git clone→setup-env.sh→docker-compose up -d - 源码运行:
easy-install.sh→python lanhu_mcp_server.py - 服务器默认地址:
http://localhost:8000/mcp
必需配置:
LANHU_COOKIE:从蓝湖网页版获取- 可选:
FEISHU_WEBHOOK_URL(飞书通知)
兼容的 AI 客户端:Cursor、Windsurf、Claude Code、通义灵码、Cline
注意事项:
- 必须使用支持视觉功能的 AI 模型(Claude、GPT、Gemini、Kimi、Qwen、DeepSeek 等)
- 为第三方开源项目(MIT 协议),与蓝湖公司无官方关联
- 数据在本地处理和缓存,不向第三方服务器传输