具有记忆能力的AI聊天伴侣,基于RAG技术优化,专为本地大语言模型设计,支持12种语言,兼容OpenAI API。
一分钟了解#
Loyal Elephie是一个结合Next.js界面和Python后端的AI聊天伴侣,利用检索增强生成(RAG)技术提供无缝的聊天体验。它具有可控记忆功能,支持本地大语言模型,并兼容OpenAI API,适合需要私密AI助手并希望在本地运行的用户。
核心价值:让你的AI具有长期记忆能力,同时保护隐私,可在本地运行。
快速上手#
安装难度:中 - 需要配置前后端,设置用户账户,并准备OpenAI兼容的API服务
git clone https://github.com/v2rockets/Loyal-Elephie.git
cd Loyal-Elephie
cd frontend
npm install
cd ../backend
pip install -r requirements.txt
适合我的场景吗?
- ✅ 需要私密AI助手并希望在本地运行
- ✅ 希望AI能记住对话内容并提供个性化回应
- ✅ 使用本地大语言模型进行推理
- ❌ 没有Linux环境(Windows用户需在WSL中运行)
- ❌ 需要简单的部署流程
核心能力#
1. 可控记忆系统 - 让AI成为你的第二大脑#
你可以决定保存哪些对话内容,并随时编辑上下文信息。Loyal Elephie能够记住重要信息并在后续对话中调用。 实际价值:AI助手能够记住你的偏好和重要信息,提供连贯且个性化的对话体验。
2. 混合搜索技术 - 高效信息检索#
结合ChromaDB和BM25算法实现高效搜索,特别优化了日期相关查询的处理能力。 实际价值:快速找到相关历史对话和参考资料,提高AI回答的准确性和相关性。
3. 安全网络访问 - 保护你的隐私#
内置登录功能,确保只有授权用户才能访问AI助手,保护对话内容的安全。 实际价值:你的私人对话不会被未经授权的人访问,提供安全的使用环境。
4. 优化LLM代理 - 专为本地模型设计#
使用XML语法,无需函数调用,优化了令牌使用效率,可与Llama.cpp或ExllamaV2等本地LLM完美配合。 实际价值:在本地硬件上高效运行,减少资源消耗,同时保持高性能。
5. Markdown编辑器集成 - 无缝知识管理#
可选连接在线Markdown编辑器,在聊天过程中查看原始引用文档,并在编辑笔记后实时让AI更新知识。 实际价值:轻松管理参考资料,实现知识与对话的无缝整合。
技术栈与集成#
开发语言:Python (后端), JavaScript/TypeScript (前端) 主要依赖:Next.js, ChromaDB, BM25, OpenAI API兼容服务 集成方式:API / 全栈应用
维护状态#
- 开发活跃度:项目在持续更新中,已测试多种本地LLM模型
- 最近更新:近期添加了对SilverBulletMd编辑器的支持
- 社区响应:基于UI修改的开源项目,社区贡献正在积累
文档与学习资源#
- 文档质量:全面
- 官方文档:包含在README中
- 示例代码:提供部署指南和配置示例