AI 驱动的学术论文快速筛选与智能问答工具,支持 ICLR/NeurIPS/ICML 顶会论文的四维快速分析和多轮对话。
项目定位#
Paper Insight 面向 AI/ML 研究者,聚焦 OpenReview 平台上 ICLR 2026、NeurIPS 2025、ICML 2025 三场顶会论文的高效调研与筛选。
核心能力#
论文智能分析#
- 四维快速分析:输入 OpenReview 论文 ID,AI 自动回答是否开源代码、解决什么任务、使用什么评估指标、为什么优于基线方法
- 流式输出:AI 分析过程通过 SSE 实时逐字展示
- 智能缓存:分析结果自动持久化至数据库,二次访问即时加载,避免重复调用 LLM
论文浏览与检索#
- 会议论文批量浏览:支持 NeurIPS 2025、ICLR 2026、ICML 2025 全量论文列表,每页 8 篇分页展示
- 领域过滤搜索:在标题、摘要、关键词中全文搜索,支持 Shift+Enter 快捷键触发
论文对话(Paper Chat)#
- 多轮问答:基于论文内容进行上下文感知的多轮对话
- 聊天历史:会话记录持久化,可回溯历史对话
数据管理#
- 批量导入:支持从 JSONL 文件批量导入会议论文数据
用户体验#
- 响应式设计:桌面端与移动端均可正常访问
- 在线用户统计:实时显示当前在线用户数
架构概要#
前后端分离架构。开发模式下 React 前端与 FastAPI 后端独立运行;生产模式下 React 构建为静态资源,由 FastAPI 统一托管,单服务部署。
- 前端:React + Vite(TypeScript)
- 后端:FastAPI(Python)
- 数据存储:Supabase(PostgreSQL)
- LLM 调用:通过 OpenRouter 代理,默认使用 stepfun/step-3.5-flash:free 免费模型,可配置切换至 SiliconFlow
- 论文数据获取:自有爬虫从 OpenReview 平台抓取,存储为 JSONL 格式
- 部署:支持 Docker 单服务部署
能力边界#
- 当前仅覆盖 OpenReview 平台的 ICLR 2026、NeurIPS 2025、ICML 2025 三场会议论文,作者明确表示暂无计划扩展到其他平台
- 论文内容依赖于 OpenReview 公开的标题、摘要等信息,不提供全文解析
适用场景#
- 顶会论文初筛与调研
- 按领域关键词过滤候选论文
- 单篇论文的多轮问答式精读辅助
- 与 Zotero 等文献管理工具配合形成"粗筛→精读"工作流
快速开始#
环境要求:Python(uv 包管理)、Node.js(npm)
# 后端依赖
uv sync
# 前端依赖
cd frontend-react && npm install
在 backend/ 目录创建 .env,配置 OPEN_ROUTER_API_KEY、NEXT_PUBLIC_SUPABASE_URL、NEXT_PUBLIC_SUPABASE_PUBLISHABLE_DEFAULT_KEY(必填),可选配置 SILICONFLOW_API_KEY。
# 启动后端
cd backend && uv run uvicorn app:app --reload --host 127.0.0.1 --port 8000
# 启动前端
cd frontend-react && npm run dev
前端访问 http://127.0.0.1:5173,后端 API http://127.0.0.1:8000。
待确认信息#
- GitHub Releases 页面为空,无正式版本号
crawler/目录的具体实现逻辑未展开说明- 仅有迁移脚本,缺少独立的表结构设计文档
- 是否可替换 Supabase 为自建 PostgreSQL 实例未说明