Recoleta Item Note
Agentis – An AI-native programming language where the LLM is the stdlib
Agentis 提出一种面向 AI 代理的编程语言,把 LLM 直接作为“标准库”,并将代码表示为带版本控制的二进制哈希 DAG 而非文本文件。其目标是让程序天然围绕提示、验证、分支探索和受控执行来构建。
ai-native-languageagent-programmingllm-as-stdlibcontent-addressed-codeevolutionary-branching
Summary
Agentis 提出一种面向 AI 代理的编程语言,把 LLM 直接作为“标准库”,并将代码表示为带版本控制的二进制哈希 DAG 而非文本文件。其目标是让程序天然围绕提示、验证、分支探索和受控执行来构建。
Problem
- 传统编程语言把 LLM 当外部 API,而不是语言级原语,这使得构建以推理、分类、提取为核心的 agent 程序较为笨重。
- 文本文件 + 常规 VCS 的模型不一定适合 AI 生成/演化式代码,容易出现合并冲突,也缺少围绕 agent 执行的原生分支与追踪机制。
- 自主代理容易产生失控调用、无限消耗或不安全 I/O,因此需要预算约束、沙箱和可验证的执行模型。
Approach
- 把
prompt设计成语言原语:很多原本由传统 stdlib 完成的操作,改为直接向 LLM 请求,并支持类型化输出,如prompt(...) -> list<string>或结构化类型。 - 通过
validate机制对 LLM 输出做约束检查,例如置信度阈值,从而把生成结果纳入程序逻辑与失败处理流程。 - 引入 Cognitive Budget(CB)/ fuel 机制,对操作成本进行限制,防止代理无限运行,并鼓励更高效的提示设计。
- 使用
explore做进化式分支:执行可分叉,成功结果形成新分支,失败分支被丢弃,适合搜索式问题求解。 - 将代码存为 SHA-256 内容寻址的 AST/DAG,并与内置 VCS 融合;同时提供沙箱文件 I/O 和域名白名单网络访问以增强安全性。
Results
- 文本中没有提供正式实验、基准测试或同行评测的定量结果,因此无法验证其相对现有语言/框架的性能提升幅度。
- 给出了可操作性声明:首次运行
agentis go examples/fast-demo.ag的输出时间约 3–8 秒,但未说明硬件、模型、任务和对比基线。 - 提供了若干具体功能主张:支持类型化提示输出、验证规则、进化式分支、内容寻址代码存储、无合并冲突设计、沙箱 I/O、网络白名单。
- 工具链层面列出了命令与流程,如
init、go、commit、run、branch、switch、log,说明其不仅是语言概念,也包含执行与版本管理实现。 - 实现复杂度主张较强:宣称“Zero bloat”,基于 Rust,依赖仅提到 sha2 与 ureq,但这属于工程描述而非效果指标。
Link
Built with Recoleta
Run your own research radar
Turn arXiv, Hacker News, OpenReview, Hugging Face Daily Papers, and RSS into local Markdown, Obsidian notes, Telegram digests, and a public site.