Hands-On Large Language Models
✨O'Reilly《Hands-On Large Language Models》官方代码库,包含12章核心内容与Bonus章节,涵盖Tokens、Transformer、RAG、微调等主题。提供300+插图与可运行的Jupyter Notebook,支持Colab与本地环境。
自然语言处理RAG大语言模型
O'Reilly《Hands-On Large Language Models》官方代码库,包含12章核心内容与Bonus章节,涵盖Tokens、Transformer、RAG、微调等主题。提供300+插图与可运行的Jupyter Notebook,支持Colab与本地环境。
包含93+个生产级示例的综合AI工程资源库,提供LLM应用、RAG系统、AI Agent开发及MCP协议的深度教程与可运行代码实现,覆盖从初级到高级的完整学习路径。
一个精选的资源集合,专注于检索增强生成(RAG)与推理在大型语言模型和智能体中的融合研究,包含学术论文、工具和实现方案。
Towards AI出版的"Building LLMs for Production"书籍配套的Jupyter笔记本集合,涵盖RAG、LLM、提示工程、微调等核心技术的实践教程。
一个包含100个博士级研究任务的基准测试平台,涵盖22个不同领域,用于系统性评估深度研究代理(DRA)的报告生成质量和信息检索能力。
精选的大语言模型长上下文建模领域的论文和博客资源库,涵盖高效Transformer、长度外推、长期记忆、检索增强生成及评估方法。
通义深究是一个开源的深度研究智能体,专为长时程、深度信息检索任务设计,具有305亿总参数,每仅激活33亿参数。该模型在多个智能搜索基准测试中表现出色,包括人类终极考试、浏览竞赛、WebWalkerQA等。
第 1 / 1 页 · 共 7 条
获取最新的 AI 工具和趋势,直接发送到您的收件箱。没有垃圾邮件,只有智能。