Recoleta Item Note

Show HN: Residuum | Agentic AI with continuous context

Residuum 是一个个人 AI 代理框架,主打“无会话边界”的连续上下文,让同一个代理跨 CLI、Discord 和 webhook 持续共享记忆。它试图解决传统 agent 每次新会话都要重新建立上下文、以及定时主动检查浪费 token 的问题。

agent-frameworkcontinuous-memorymulti-channel-agentscontext-managementproactive-scheduling

Residuum 是一个个人 AI 代理框架,主打“无会话边界”的连续上下文,让同一个代理跨 CLI、Discord 和 webhook 持续共享记忆。它试图解决传统 agent 每次新会话都要重新建立上下文、以及定时主动检查浪费 token 的问题。

  • 现有 AI agent 框架通常以会话为单位工作,新对话会丢失连续上下文,用户需要反复重述历史。
  • 依赖 RAG 或固定记忆文件只能部分弥补,因为模型仍把每次对话当作孤立事件;较旧上下文还要求代理先“猜到要检索”。
  • 常见 proactive/heartbeat 机制会定期触发完整 LLM 调用来检查是否有任务,带来不必要的 token 成本。
  • 单代理、单连续线程替代会话式交互:把对话历史压缩成持续驻留上下文中的 observation log,而不是每次临时检索最近记忆。
  • 对更早的历史细节,提供深度检索机制,结合 BM25 + 向量嵌入做混合搜索;近期工作记忆则直接保留在上下文中。
  • 通过多渠道汇聚,将 CLI、Discord、webhooks 等消息统一接入同一个代理和同一份记忆,实现跨渠道连续对话。
  • YAML pulse scheduling把定时/触发逻辑移出 LLM:用户定义检查内容、时间和通知去向,LLM 仅在到点时触发,并可用便宜模型执行。
  • 系统采用file-first 与模块化设计,状态保存在可读文件中,兼容 OpenClaw skills,并支持多家模型提供商与故障切换。
  • 文本没有提供标准基准测试、公开数据集或正式实验指标,因此没有可核验的定量 SOTA 结果。
  • 相比 OpenClaw,作者声称解决了其“两天左右上下文悬崖”问题:旧上下文不再主要依赖代理先猜测并搜索,而是通过持续 observation log 保持可用。
  • 相比 OpenClaw 每 30 分钟触发一次完整 LLM heartbeat,Residuum 声称通过 YAML pulse scheduling 去掉了这类由 LLM 承担的调度逻辑,从而减少 token 浪费;但未给出节省比例。
  • 相比 NanoClaw(文中称约 500 行 TypeScript、偏极简和容器隔离),Residuum强调自己的差异化能力包括持续记忆压缩、结构化主动调度、后台任务委派与模型分层、多渠道统一线程。
  • 工程层面给出的具体事实包括:Rust 实现;支持 Linux(x86_64、aarch64)与 macOS Apple Silicon;要求 Rust 1.85+;支持 Anthropic、OpenAI、Google、Ollama,并内建 provider failover。
Built with Recoleta

Run your own research radar

Turn arXiv, Hacker News, OpenReview, Hugging Face Daily Papers, and RSS into local Markdown, Obsidian notes, Telegram digests, and a public site.