Recoleta Item Note

Feedback on a local-first MCP memory system for AI assistants?

这是一个面向 AI 助手的本地优先个人记忆系统,通过 MCP 工具把本地向量库中的用户上下文快速提供给新的 LLM 会话。它强调自托管、可追溯版本历史和对模型友好的上下文组织,而不是复杂的人类知识分类。

local-ragmcpai-memoryvector-databaseself-hosting

这是一个面向 AI 助手的本地优先个人记忆系统,通过 MCP 工具把本地向量库中的用户上下文快速提供给新的 LLM 会话。它强调自托管、可追溯版本历史和对模型友好的上下文组织,而不是复杂的人类知识分类。

  • 解决新开启的 LLM 会话无法稳定继承用户长期上下文的问题,导致助手忘记偏好、约束、计划和历史决策。
  • 现有记忆方案常依赖云端/SaaS 或复杂文档结构,不适合重视隐私、自托管和可控数据流的技术用户。
  • 记忆写入还容易出现冲突、覆盖和过时信息污染,影响检索质量和后续代理行为可靠性。
  • 采用本地优先 RAG:把文本块和少量元数据存入本地 ChromaDB,再通过 MCP 暴露 store/search/update/delete/get_chunk/get_evolution_chain 等工具给 AI 助手调用。
  • 核心机制很简单:把用户上下文切成清晰文本片段保存;新会话需要记忆时做语义检索,并结合少量词法和时间新鲜度信号重新排序。
  • 用轻量元数据而不是重 schema:包含时间戳、置信度、supersedes 版本链和弃用标记,以保留历史并隐藏默认已弃用内容。
  • 写入时做启发式 reconciliation,发现重叠或冲突就返回结构化 warnings[] 和自修复提示,让模型调整写入行为,而不是静默覆盖。
  • 默认软删除和版本化更新(strategy="version"),辅以健康检查、冲突日志、备份恢复,以及 stdio/SSE 两种 MCP 传输方式。
  • 文本未提供标准论文式定量评测结果,因此没有可报告的准确率、召回率或基准对比数字
  • 明确声称的可用成果是:发布了“early but usable v1”,可用于“personal self-hosted workflows”,并已支持 6 个核心 MCP 工具:storesearchupdatedeleteget_chunkget_evolution_chain
  • 检索侧声称支持语义搜索,并在排序中融合相似度、轻量词法信号和时间新鲜度;默认隐藏 deprecated chunks,以提高当前上下文质量。
  • 写入侧声称支持启发式冲突检测、冲突日志、warning-first 返回和 self-heal 字段,以提升模型写记忆时的可靠性。
  • 工程交付上提供了 2 种运行路径(Docker 或本地 Python)、2 种 MCP 传输(stdio、SSE)以及 3 种 SSE 鉴权模式(nonebeareroauth)。
Built with Recoleta

Run your own research radar

Turn arXiv, Hacker News, OpenReview, Hugging Face Daily Papers, and RSS into local Markdown, Obsidian notes, Telegram digests, and a public site.