轻量级 LLM Agentic 框架,通过 Agent/Prompt/Dialog/Tactic 四层抽象实现快速原型与多 Agent 编排,内置 Proxy 系统、沙箱执行与结构化日志。
LLLM(Low-Level Language Model)是一个轻量级 Python 框架,专为构建高级 LLM Agentic 系统而设计,同时支持程序合成与神经符号研究。由 Productive-Superintelligence 组织开发,最新版本 v0.1.1,采用 Apache-2.0 许可证。
核心抽象#
框架采用四层抽象设计:
- Agent(调用者):封装系统提示、基础模型与工具调用循环
- Prompt(函数):管理模板、解析器与处理器
- Dialog(内部状态):维护独立对话历史,支持 fork(对话分叉)
- Tactic(程序):编排 Agent 与 Prompt 的协作逻辑
快速原型#
Tactic.quick() 一行代码即可发起对话,无需配置文件、文件夹结构或子类化。支持零配置多轮对话:
from lllm import Tactic
response = Tactic.quick("What is the capital of France?")
print(response.content)
多模型与工具#
通过 LiteLLM 统一接入 OpenAI GPT-4o、Anthropic Claude 等多供应商。@tool 装饰器实现函数调用,内置 run_python、query_api_doc 等工具。
Proxy 系统与沙箱#
内置代理模块(金融数据、搜索等),自动注册并注入工具与沙箱执行环境(interpreter/Jupyter),变量可跨调用持久化。
结构化输出与日志#
Pydantic 模型驱动的 Prompt 格式化与输出解析。LogStore 支持 LocalFile/SQLite/NoOp 多后端,带标签索引、成本聚合与导出功能。
配置与包管理#
lllm.toml 项目配置与 YAML Agent 配置实现声明式多 Agent 编排,支持配置继承与深度合并。lllm pkg install 实现可共享、可版本化的 Agent 基础设施包。
批量与并发#
bcall()、acall()、ccall() 支持并行/批量执行,load_runtime()/get_runtime() 支持命名运行时并行实验。
实验性功能#
基于 Playwright 的 Computer Use Agent(CUA)、OpenAI Responses API 路由、Skills 系统。
适用场景#
快速原型验证、多 Agent 协作系统、代理驱动的数据分析、代码审查服务封装(内置 FastAPI 示例)、会话审计与成本追踪、程序合成与神经符号研究。
安装#
pip install lllm-core