发现 AI 代理的未来arrow_forward

LLLM (Low-Level Language Model)

calendar_today收录于 2026年4月23日
category智能体与应用工具
code开源
Python工作流自动化大语言模型多智能体系统AI代理智能体框架LiteLLMCLI智能体与应用工具模型与推理框架开发者工具/代码自动化/工作流/RPA

轻量级 LLM Agentic 框架,通过 Agent/Prompt/Dialog/Tactic 四层抽象实现快速原型与多 Agent 编排,内置 Proxy 系统、沙箱执行与结构化日志。

LLLM(Low-Level Language Model)是一个轻量级 Python 框架,专为构建高级 LLM Agentic 系统而设计,同时支持程序合成与神经符号研究。由 Productive-Superintelligence 组织开发,最新版本 v0.1.1,采用 Apache-2.0 许可证。

核心抽象#

框架采用四层抽象设计:

  • Agent(调用者):封装系统提示、基础模型与工具调用循环
  • Prompt(函数):管理模板、解析器与处理器
  • Dialog(内部状态):维护独立对话历史,支持 fork(对话分叉)
  • Tactic(程序):编排 Agent 与 Prompt 的协作逻辑

快速原型#

Tactic.quick() 一行代码即可发起对话,无需配置文件、文件夹结构或子类化。支持零配置多轮对话:

from lllm import Tactic
response = Tactic.quick("What is the capital of France?")
print(response.content)

多模型与工具#

通过 LiteLLM 统一接入 OpenAI GPT-4o、Anthropic Claude 等多供应商。@tool 装饰器实现函数调用,内置 run_pythonquery_api_doc 等工具。

Proxy 系统与沙箱#

内置代理模块(金融数据、搜索等),自动注册并注入工具与沙箱执行环境(interpreter/Jupyter),变量可跨调用持久化。

结构化输出与日志#

Pydantic 模型驱动的 Prompt 格式化与输出解析。LogStore 支持 LocalFile/SQLite/NoOp 多后端,带标签索引、成本聚合与导出功能。

配置与包管理#

lllm.toml 项目配置与 YAML Agent 配置实现声明式多 Agent 编排,支持配置继承与深度合并。lllm pkg install 实现可共享、可版本化的 Agent 基础设施包。

批量与并发#

bcall()acall()ccall() 支持并行/批量执行,load_runtime()/get_runtime() 支持命名运行时并行实验。

实验性功能#

基于 Playwright 的 Computer Use Agent(CUA)、OpenAI Responses API 路由、Skills 系统。

适用场景#

快速原型验证、多 Agent 协作系统、代理驱动的数据分析、代码审查服务封装(内置 FastAPI 示例)、会话审计与成本追踪、程序合成与神经符号研究。

安装#

pip install lllm-core

保持更新

获取最新的 AI 工具和趋势,直接发送到您的收件箱。没有垃圾邮件,只有智能。

rocket_launch