
每个人都在谈论OpenClawd,但它究竟是如何工作的呢?
今天我们深入拆解这个爆火项目的底层架构。
一、OpenClawd的技术本质
大家都知道OpenClawd是一个可以在本地运行的个人助手,你甚至可以在手机上轻松访问它。
但它的技术本质是什么?
从核心来看,OpenClawd是一个Type写的CLI应用程序。
它不是Python项目,不是Next.js,也不是Web App。
展开剩余82%它是一个进程,能够:
在你的机器上运行,并暴露一个Gateway Server来处理所有渠道连接 调用各类LLM API(Anthropic、OpenAI、本地模型等) 在本地执行工具 按你的需求在电脑上做事情当你在消息应用中向OpenClawd发送提示时,会发生以下过程:
1. 渠道适配器(Channel Adapter)
渠道适配器接收你的消息并进行处理(标准化、提取附件)。
不同的消息应用有各自专用的适配器:Telegram、WhatsApp、Slack等。
2. 网关服务器(Gateway Server)
这是OpenClawd的核心。
网关服务器是任务/会话协调器,它接收你的消息并将其传递给正确的会话。
为了让操作串行化,OpenClawd使用基于lane的命令队列。一个会话有自己专用的Lane,低风险的可并行化任务可以在并行lane上运行。
默认串行,需要并行时再显式并行。
默认串行,需要并行时再显式并行。
这是真正"AI"介入的地方。它会:
判断用哪个模型 选择可用的API Key(如果某个key不可用,就标记为cooldown并尝试下一个) 如果主模型失败,会回退到其他模型LLM调用本身是流式输出,并对不同供应商做了统一抽象。
5. 智能体循环(Agentic Loop)
如果LLM返回的是工具调用响应,OpenClawd就会在本地执行工具,并把结果追加回对话。
这个过程会重复,直到LLM输出最终文本,或达到最大轮数。
6. 回复路径
回复通过渠道回到你那边,同时session会持久化到JSONL文件。
三、OpenClawd如何"记忆"
没有靠谱的记忆系统,AI助理就跟金鱼一样,转头就忘。
OpenClawd用两套机制:
1. JSONL会话转录:每次对话都存成一行JSON
2. 记忆文件:Markdown格式,存放在memory/目录
检索时,它用的是向量检索+关键词匹配的混合方案。
技术实现:
向量检索用SQLite 关键词检索用FTS5 embedding提供方可配置整体上,OpenClawd的记忆系统非常简单:没有记忆合并,也没有遗忘曲线。简单=可解释=好维护。
整体上,OpenClawd的记忆系统非常简单:没有记忆合并,也没有遗忘曲线。简单=可解释=好维护。
这是OpenClawd的核心护城河:你给它一台电脑,它就能用。
执行环境包括:
sandbox:默认,在Docker容器里运行命令 直接在宿主机运行 在远程设备上运行工具集:
文件系统工具:read / write / edit 浏览器工具:基于Playwright 进程管理:运行后台任务、kill进程危险的shell构造默认会被拦截:
npm install $(cat /etc/passwd) # 命令替换 ❌cat file > /etc/hosts # 重定向 ❌rm -rf /
红腾网提示:文章来自网络,不代表本站观点。