01 · 为什么 AI 需要一个家
从无状态聊天出发,解释 OpenClaw 为什么需要 Gateway、Memory 和 Channel 这三个基础设施。
——翔宇
要点速览
- ChatGPT 是无状态的——关掉浏览器,AI 就不存在了,每次对话从零开始
- AI 要变成真正的助手,需要三个基础设施:24 小时进程、持久记忆、多渠道入口
- OpenClaw 的三个核心概念(Gateway(网关) / Memory(记忆) / Channel(渠道))不是随便设计的——是从第一性原理推导出的必然
- LangChain 是工具箱,OpenClaw 是住所——一个帮你造锤子,一个给 AI 一个家
- "文件即真相":OpenClaw 选择 Markdown 而不是数据库,是一个深思熟虑的设计决策
1. 一个好问题
你打开 ChatGPT,让它帮你写了一段代码。写得不错。你复制粘贴,关掉浏览器。
现在回答我:AI 还在吗?
不是"服务器上的 GPT 模型还在不在"——当然在,OpenAI 的机器 24 小时运转。我问的是:那个帮你写代码的 AI,它还在工作吗?
它在盯着你的服务器日志吗?它在检查你昨天部署的代码有没有报错吗?凌晨三点你的网站挂了,它会主动通知你吗?
都不会。
你关掉浏览器的那一刻,那个 AI 就不存在了。它不是下班了——它是消失了。
🧠 底层逻辑
LLM(大语言模型)本身是无状态的。Claude、GPT、Gemini,全都一样。它们没有进程、没有硬盘、没有后台任务。每次你发消息,API 收到请求,模型生成回复,然后——什么都没了。没有一个"东西"在两次对话之间继续存在。
这就是今天大多数人使用 AI 的方式:打开 → 用 → 关掉 → 重复。
让我们给这种使用方式画个时间线:
09:00 打开 ChatGPT,问了个问题
09:05 得到回答,关掉浏览器
——AI 不存在——
14:00 打开 ChatGPT,问了另一个问题
14:03 得到回答,关掉浏览器
——AI 不存在——
22:00 打开 ChatGPT,又问了个问题
22:08 得到回答,关掉浏览器
——AI 不存在——
一天 24 小时里,AI 实际"存在"的时间加起来不到 20 分钟。剩下的 23 小时 40 分钟,它消失了。
而且每次"存在"之间没有任何连续性。09:05 的那个 AI 和 14:00 的那个 AI,不是同一个"人"。它们共享一个模型,但不共享任何经历。对 14:00 的 AI 来说,上午那段对话从未发生过。
🔑 关键点
无状态不只是"没有进程"。它意味着没有连续的自我。每一次对话都是一个全新的、独立的、转瞬即逝的实例。用完就扔的纸杯,不是你的专属咖啡杯。
但这真的是 AI 能做到的全部吗?
2. 大多数人的直觉——以及为什么它是错的
错误直觉
「ChatGPT 有记忆功能啊——它能记住我上次的对话。所以它是有状态的。」
让我们认真想一下这个"记忆功能"到底是什么。
ChatGPT 的记忆,是 OpenAI 在对话结束后,用另一个模型从你的聊天记录里提取几句摘要,存进数据库。下次你开新对话时,把这几句摘要塞进系统提示。
这不是 AI 有记忆。这是有人帮 AI 写了一张便签纸,下次上班时贴在它桌上。
🎯 打个比方
你每天去咖啡店,店员换了一批又一批。但老板在你的会员卡上写了一行字:"这位客人喝美式,不加糖。"新店员看到便签,知道你的偏好——但他不认识你,不知道你上次讲了什么笑话,也不知道你昨天抱怨过座位太硬。他只知道便签上那一行字。
ChatGPT 的"记忆"就是这张便签。
而且这张便签还有限制——OpenAI 目前只允许存储大约 50 条记忆。你用了三个月后,早期的记忆会被新的覆盖。这不是真正的"记忆"——这是一个容量极小的便签板。
它能记住几条偏好,但做不到这些事:
📌 记住这点
ChatGPT 不是一个持续运行的 AI 助手。它是一个对话接口——你说一句,它回一句。没有对话,就没有 AI。这不是 ChatGPT 的缺陷,是它的设计边界。
3. 盲区:如果 AI 真的要变成你的助手
让我们做一个思想实验。
假设你不只想要一个"能聊天的 AI",你想要一个真正的 AI 助手——像一个远程员工一样:
- 你睡觉的时候,它在值班
- 你在微信上说一声"查一下昨天的销售数据",它就去查
- 你不需要每次都解释你是谁、你在做什么项目、你的偏好是什么
- 出了问题它会主动找你 来看一个具体场景。
你在运营一个社区。凌晨两点,你的服务器 CPU 飙到 95%。如果你有一个 AI 助手,理想情况是这样的:
- AI 在后台发现 CPU 异常(它一直在值班)
- AI 回忆起你上次说过"CPU 超过 90% 就先重启 Nginx"(它记得你的规则)
- AI 执行了重启操作,然后在 Telegram 上给你发了一条消息:"已发现 CPU 异常并重启 Nginx,目前恢复正常"(它能从你常用的 App 联系你)
- 第二天你醒来,翻 Telegram 看到这条消息,回一句"做得好" 注意这个场景里的三个动词:值班、记得、联系。
每个动词背后都需要一种基础设施:
三个全没有。这不是 ChatGPT 做得不好——它根本没打算做这些事。它的定位是"对话工具",不是"常驻助手"。
这样的 AI 助手,需要什么基础设施?
不要急着回答。让我们从第一性原理推导。
4. 第一性原理:从三个"如果没有"开始
4.1 如果没有 24 小时进程
你关掉电脑,AI 就停了。
这意味着 AI 只在你"打开"它的时候才存在。它没有自己的生命周期。它不能等你不在的时候处理任务,不能定时执行巡检,不能在凌晨三点发现问题并通知你。
💬 说人话
一个只在你打电话时才存在的员工,不是员工——是人工客服热线。你挂了电话,那边就没人了。
结论:AI 助手需要一个 24 小时运行的进程——一个不依赖于你是否在线就持续存在的"住所"。
让我们用反事实验证一下这个结论。假设有人说:"不需要 24 小时进程啊,你想用的时候启动一下不就行了?"
想想看:
- 定时任务谁来触发?——你不在,没人启动 AI,定时任务不会执行
- 突发事件谁来响应?——服务器凌晨崩了,AI 在睡觉,没人知道
- 别人发消息谁来回?——你的社区成员在 Discord 问了个问题,AI 没在线,无人回复
📌 记住这点
"按需启动"的 AI 只能做被动响应——你问它才答。24 小时进程的 AI 可以做主动行动——它可以自己发现问题、自己处理、自己汇报。这是工具和助手的本质分水岭。
4.2 如果没有持久记忆
每次对话,AI 都从零开始。
你告诉它"我的服务器 IP 是 192.168.1.100",下次开对话它忘了。你说"我喜欢简洁风格",压缩后丢了。你花了半小时解释项目背景,下次又要再来一遍。
💬 说人话
每天早上来上班的员工都失忆了。你得重新介绍自己、重新解释公司业务、重新教他怎么用公司系统。每一天。
结论:AI 助手需要 持久化的记忆系统——把重要信息存在磁盘上,而不是只存在对话窗口里。
这个结论有一个重要推论:记忆不能只是"存起来"——还需要分层。
为什么?因为你告诉 AI 的信息有不同的重要性:
- "今天的会议纪要"——只需要记几天
- "我的服务器 IP 是 192.168.1.100"——需要记几个月
- "我是一个前端开发者,偏好 React"——需要永远记住 如果所有信息不分轻重全堆在一起,要么 AI 的"记忆负担"越来越重(加载太慢),要么重要信息淹没在琐碎细节里(找不到)。
💡 划重点
这就是为什么 OpenClaw 后来会设计出三层记忆架构(日志 → 提炼 → 身份)——不是因为工程师喜欢复杂设计,而是因为记忆本身就有层次。这一点在第 04 篇会详细展开。
4.3 如果没有多渠道入口
AI 只能在一个网页上跟你说话。
你在手机上,打不开那个网页。你在 Telegram 群里,想让 AI 回个消息,做不到。你想让 AI 在 Discord 社区里当客服,没门——它只活在那个浏览器标签页里。
💬 说人话
你的员工没有手机号、没有邮箱、没有工位电话。唯一联系方式是你必须走到他工位前面,面对面说话。
结论:AI 助手需要 多渠道连接能力——能接入 Telegram、Discord、WhatsApp、Slack 等任何你常用的平台。
这里有一个容易忽略的细节:Channel 不只是"能从多个平台聊天"那么简单。
它还意味着 AI 可以在不同平台做不同的事。比如:
同一个 AI,通过不同的 Channel 扮演不同的角色。这不是幻想——OpenClaw 支持 20 多个平台,每个平台可以连接到不同的 Agent。
🔍 深入一步
多渠道还解决了一个心理问题:触达成本。如果 AI 只活在一个专用网页上,你不太会为了问一个小问题专门打开那个网页。但如果 AI 就在你的 Telegram 里——你随手发一条消息,跟找朋友聊天一样自然。渠道越贴近你的日常习惯,AI 的使用频率越高。
5. 三个概念的诞生
回看上一节的三个结论:
这三个概念不是拍脑袋想出来的。它们是从"AI 要变成真正的助手"这个需求出发,一步步推导出来的必然。
🔑 关键点
Gateway、Memory、Channel 不是三个独立的功能——它们是同一个问题的三个维度。少了任何一个,"AI 助手"就无法成立。Gateway 让它活着,Memory 让它记得,Channel 让你找得到它。
但仅有这三个还不够——你还需要第四个概念。
再加上一个概念——Agent(智能体)。Agent 是在 Gateway 里面运行的"员工"。Gateway 是办公楼,Agent 是坐在里面干活的人。一个 Gateway 可以跑多个 Agent,每个 Agent 有自己的人设、记忆和技能。
为什么要区分 Gateway 和 Agent?为什么不直接说"OpenClaw 就是一个 AI"?
因为一个 Gateway 里面可以住多个 Agent。就像一栋办公楼里可以有客服、数据分析师、运维工程师——每个人有不同的技能和职责。你的 Telegram 消息可能由"客服 Agent"处理,而你在 Slack 里的技术问题可能由"运维 Agent"回答。
你(老板)
↓ 通过 Channel(Telegram/Discord/WhatsApp...)发消息
Gateway(办公楼/总机)—— 24 小时运转
├── Agent A(客服)—— 有自己的记忆和人设
├── Agent B(数据分析师)
└── Agent C(运维值班)
🧠 底层逻辑
Agent 不是独立进程——它嵌入在 Gateway 内部运行。这意味着 Agent 不需要自己操心"怎么保持活着""怎么接收消息"这些基础设施问题,Gateway 全包了。Agent 只需要专注一件事:回答问题、执行任务。
6. 设计权衡:为什么不用更"主流"的方案
理解了三个概念的必要性,接下来的问题是:怎么实现它们?
OpenClaw 在每个决策上都做了取舍。让我们看看最重要的三个。
6.1 单进程 vs 微服务
直觉方案:Gateway 一个服务,Memory 一个服务,Channel 一个服务,用消息队列连起来。这是微服务架构,2024 年最"正确"的做法。
OpenClaw 的选择:单进程。所有东西跑在一个 Node.js 进程里。
为什么?
🎯 打个比方
微服务像连锁餐厅——厨房、前台、配送各自独立,能服务一千桌。单进程像你家厨房——一个人做饭、端菜、洗碗,但五分钟就能开饭。OpenClaw 选了家厨房,因为它的目标用户不是企业,是你——一个想在自己电脑上跑 AI 助手的个人。
6.2 Markdown 文件 vs 数据库
Agent 的记忆存在哪?
直觉方案:用 SQLite 或 PostgreSQL。数据库天生就是存东西的,查询快、结构化、成熟稳定。
OpenClaw 的选择:Markdown 文件。SOUL.md、MEMORY.md、memory/2024-01-15.md——全是纯文本文件。
为什么?
🧠 底层逻辑
这背后是 OpenClaw 最核心的设计哲学——"文件即真相"(Files as Source of Truth)。AI 的记忆、人设、配置,全部是你能用记事本打开的文件。你可以直接编辑它们,可以用 Git 跟踪每一次改动,可以把它们复制到另一台电脑。没有黑箱,没有锁定。
📌 记住这点
"文件即真相"不是偷懒。它是一个深思熟虑的决策:AI 的行为应该对使用者完全透明。如果你不知道 AI 记住了什么、遵循什么规则,你怎么信任它?Markdown 文件让一切可见、可改、可追溯。
数据库更快,但你打不开它看看 AI 记了什么。Markdown 慢一点,但你随时可以打开 SOUL.md,看看 AI 的"性格"是怎么写的,不满意直接改。
6.3 嵌入式 Agent vs 独立进程
Agent 怎么运行?
直觉方案:每个 Agent 是一个独立进程,Gateway 通过 API 调用它们。这样 Agent 崩了不影响 Gateway。
OpenClaw 的选择:Agent 嵌入 Gateway 进程内运行。
为什么?
💬 说人话
独立进程像每个员工都有自己的独立办公室——隔音好,互不打扰,但租金贵。嵌入式像开放式工位——共享空调和网络,偶尔有人打电话声音大了点,但成本低很多,沟通也快。
OpenClaw 的目标是让个人用户在一台普通电脑上跑 AI 助手。如果每个 Agent 都要单独的进程,一台 Mac Mini 根本扛不住。嵌入式架构让你在一台机器上轻松跑 5-10 个 Agent。
6.4 设计权衡的共同逻辑
你注意到了吗?这三个设计选择有一个共同的倾向:
每一个都在"专业/企业级"和"个人/可用性"之间选了后者。
💡 划重点
OpenClaw 的设计哲学可以总结为一句话:让一个普通人在一台普通电脑上,用最少的配置成本,跑起一个真正有用的 AI 助手。 每一个技术决策都服务于这个目标。如果某个"更先进"的方案让部署变复杂了,那就不选它。
7. 与 LangChain / CrewAI 的本质区别
到这里你可能会问:LangChain 不是也做 AI Agent 吗?CrewAI 不是也有多 Agent 协作吗?OpenClaw 跟它们有什么不同?
这个问题问到了关键。区别不在功能列表上,而在定位上。
7.1 运行时 vs 库
🎯 打个比方
LangChain 是宜家卖的家具零件包——给你木板、螺丝、说明书,你自己组装书架。CrewAI 是一套团队管理模板——给你组织架构图和流程文档。但 OpenClaw 是一套精装公寓——水电通了、家具摆好了、门禁装好了,你拎包入住。
更准确地说:
🔑 关键点
LangChain 和 CrewAI 是"帮你造 AI 应用"的工具。OpenClaw 不帮你造——它自己就是那个应用。你不需要写一行代码,只需要写几个 Markdown 配置文件,告诉 Agent 它是谁、能做什么。
🔍 深入一步
这个区别可以用一句话总结:LangChain 是工具箱,OpenClaw 是住所。工具箱帮你造东西,但造完了你还得找个地方放。住所直接给你一个现成的空间——AI 搬进去就能住。Gateway 是房子,Memory 是柜子,Channel 是门和窗户。
7.2 一个具体的对比场景
假设你想做一件事:让 AI 在你的 Telegram 群里 24 小时当客服,能记住每个用户的历史问题。
用 LangChain:
- 写 Python 代码调用 LangChain 的 Chain
- 自己对接 Telegram Bot API
- 自己实现记忆存储(用 Redis?用 SQLite?自己选)
- 自己写进程管理(怎么保持 24 小时运行?崩了怎么自动重启?)
- 自己写上下文管理(对话太长怎么压缩?) 预估工作量:一个有经验的开发者,至少 2-3 天。
用 OpenClaw:
- 写一个 Markdown 文件定义 Agent 的人设和技能
- 在配置里填上 Telegram Bot Token
- 启动 OpenClaw 预估工作量:30 分钟,不需要写一行代码。
💬 说人话
LangChain 给你砖头和水泥,你自己砌墙。OpenClaw 给你一栋装修好的房子,你只需要挂上门牌号(配置 Channel)、放上家具(定义 Agent)、搬进去住。
这并不意味着 LangChain 不好——它们解决不同层次的问题。如果你是 AI 框架开发者,需要对每一个环节精确控制,LangChain 是更好的选择。但如果你只是想"让 AI 帮我干点活",不想碰代码,OpenClaw 是更好的选择。
📌 记住这点
选 LangChain 还是 OpenClaw,不是"哪个更好"的问题,是"你想不想写代码"的问题。如果你愿意写代码换来完全控制,用 LangChain。如果你想用配置文件就搞定一切,用 OpenClaw。
8. OpenClaw 到底是什么
让我们把前面推导出来的所有东西拼在一起。
现在我们可以给 OpenClaw 一个完整的定义了。
OpenClaw 是一个开源的 AI Agent Gateway——它跑在你自己的机器上(Mac / Linux / 服务器),为 AI Agent 提供三样东西:
一个持续运行的进程(Gateway)——AI 不会因为你关掉浏览器就消失。它 24 小时在线,等你随时来聊,或者自己干活。
一套持久化记忆(Memory)——三层架构(日志 → 提炼 → 身份),全部存在 Markdown 文件里。AI 记得你是谁,记得上次的对话,记得它自己学到的教训。
多个渠道入口(Channel)——Telegram、Discord、WhatsApp、Slack、iMessage……20 多个平台,配好了就能用。你在手机上打开 Telegram,直接跟你的 AI 说话。跟朋友发消息没有任何区别——AI 就住在你的聊天列表里。
⚡ 速记
Gateway = 24 小时活着。Memory = 记得你。Channel = 随时找到它。三者合一 = 一个真正的 AI 助手。
8.1 关于项目本身
💡 划重点
OpenClaw 跑在你自己的机器上——不是云服务。你的对话、记忆、配置,全在你的硬盘里。没有第三方服务器看得到你跟 AI 说了什么。这不只是隐私考量,也是"文件即真相"哲学的延伸——你的数据,你掌控。
9. 一个常见误解:OpenClaw 是另一个 ChatGPT 吗
错误直觉
「OpenClaw 就是一个可以自己搭的 ChatGPT 替代品。」
不是。
ChatGPT 是一个对话产品——你发消息,它回消息。OpenClaw 不是对话产品。它是基础设施——让 AI 能够存在、记忆和连接的基础设施。
OpenClaw 本身不提供 AI 模型。它连接 Claude、GPT、Gemini 等模型(通过 API),但不替代它们。
🎯 打个比方
ChatGPT 是一部电话——你拨号,有人接。OpenClaw 是一个电话交换机——它不接电话,但它让你能把任何电话(Claude / GPT / Gemini)接到任何号码(Telegram / Discord / WhatsApp)上去。
它们的关系是:
ChatGPT = 模型 + 对话界面(OpenAI 提供一切)
OpenClaw = Gateway + Memory + Channel(你提供模型的 API Key)
这意味着什么?意味着你可以自由组合:
- OpenClaw + Claude API → 一个使用 Claude 的 24 小时助手
- OpenClaw + GPT API → 一个使用 GPT 的 24 小时助手
- OpenClaw + 本地模型 → 一个完全离线的 AI 助手,数据永远不出你的机器
💬 说人话
OpenClaw 不关心你用哪个大脑(模型)。它只负责给这个大脑一个身体——能站着(Gateway)、能记事(Memory)、能接电话(Channel)。至于大脑是 Claude 还是 GPT,你说了算。
你可以用 OpenClaw + Claude API 打造一个比 ChatGPT 更强的助手——因为它有持久记忆、多渠道接入、24 小时运行。但你需要自己提供模型的 API Key。
9.1 更多常见误解
⚡ 速记
OpenClaw 不是模型,不是框架,不是聊天 UI。它是让 AI 能住下来的基础设施。你带模型(API Key),它提供房子(Gateway + Memory + Channel)。
10. 验证理解
如果你真的理解了 OpenClaw 是什么,你应该能回答以下问题:
问题 1:为什么 ChatGPT 不能在你睡觉的时候帮你巡检服务器?
→ 因为 ChatGPT 没有持续运行的进程。你关掉浏览器,它就不存在了。OpenClaw 的 Gateway 是 24 小时运行的——你睡了,它还在。
问题 2:为什么 OpenClaw 选择 Markdown 文件而不是数据库来存记忆?
→ "文件即真相"——Markdown 文件人类可读、可手动编辑、可 Git 版本控制。你随时可以打开 SOUL.md 看看 AI 的人设,不满意直接改。数据库更快,但不透明。
问题 3:LangChain 和 OpenClaw 的根本区别是什么?
→ LangChain 是库——帮你写代码调用 AI。OpenClaw 是运行时——它自己就是那个跑着的 AI 助手,你不需要写代码。工具箱 vs 住所。
问题 4:如果没有 Channel,OpenClaw 会怎样?
→ AI 有了进程、有了记忆,但你找不到它。它活着、记得你,但你没法联系它——像一个坐在密室里的员工,没有电话、没有邮箱。
⚡ 速记
用一句话解释 OpenClaw:它给 AI 一个家——一个能 24 小时活着、能记住你、能从任何聊天平台被找到的运行环境。
问题 5:OpenClaw 为什么用嵌入式架构而不是给每个 Agent 独立进程?
→ 因为目标用户是个人。一台 Mac Mini 跑 5 个独立进程很吃力,但跑 5 个嵌入式 Agent 轻轻松松。部署也更简单——一条命令启动一个进程,搞定。
问题 6:一句话解释 Gateway、Memory、Channel 的关系?
→ Gateway 让 AI 活着,Memory 让 AI 记得,Channel 让你找到它。三者缺一不可——少了 Gateway 它不存在,少了 Memory 它失忆,少了 Channel 你联系不上它。
11. 设计哲学:为什么"家"这个比喻如此准确
让我们最后把整个思路串起来。
大多数 AI 工具把 AI 当工具——你用的时候拿起来,用完了放下。锤子不需要房子,螺丝刀不需要记忆。
OpenClaw 把 AI 当实体——一个持续存在、有记忆、可被联系的实体。实体需要住所。
🧠 底层逻辑
"家"不是一个诗意的比喻——它是精确的架构描述。Gateway 是地基和四面墙(让 AI 能存在),Memory 是家具和储物柜(让 AI 能积累),Channel 是门窗和信箱(让外界能触达)。缺了任何一个,这个"家"就不完整。
这个视角的转变,决定了你怎么看待 AI 的未来。
如果 AI 是工具,你追求的是更好的工具——更快的回复、更准确的回答、更低的价格。这是 ChatGPT 的竞争维度。
如果 AI 是实体,你追求的是更好的基础设施——更可靠的进程、更智能的记忆、更广泛的连接。这是 OpenClaw 的竞争维度。
两者不冲突,但层次不同。ChatGPT 解决了"AI 能不能对话"的问题。OpenClaw 解决的是"AI 能不能生活"的问题。
🔑 关键点
从"对话工具"到"常驻实体",不是功能升级,是范式转换。就像从"打电话"到"住一起"——不是通话质量提高了,是整个关系的性质变了。
一句话检验
如果你能用一句话回答以下问题,你就理解了这篇文章的核心:
- ChatGPT 缺什么? → 缺一个"家"——没有持续进程、没有持久记忆、没法从聊天 App 联系
- OpenClaw 是什么? → 给 AI 一个家——24 小时进程 + 持久记忆 + 多渠道入口
- 为什么用 Markdown 不用数据库? → 文件即真相——你能看到、能编辑、能版本控制
- 跟 LangChain 什么区别? → 工具箱 vs 住所——LangChain 帮你造,OpenClaw 直接能住
CC 提示词
理解了 OpenClaw 的定位和核心概念,现在用 Claude Code 检查一下你对这三个概念的理解是否能落地。
🚀 对 Claude Code 说 我想理解 OpenClaw 的三个核心概念在实际项目中的体现。请帮我做以下事情: - 检查 /你的路径/.openclaw/ 目录是否存在,如果存在,列出目录结构(只列两层)
- 如果有 workspace 目录,找到 SOUL.md 文件并显示内容——这就是 Agent 的"身份层"
- 查看 memory/ 目录下有多少日志文件——这代表 Agent 的"记忆层"运行了多久
- 检查配置文件中有哪些 Channel 被配置了——这代表 Agent 能从哪些平台被联系到
- 用一句话总结:这个 Agent 的 Gateway 是否在运行、Memory 是否有积累、Channel 是否已接通
🚀 对 Claude Code 说 我还没有安装 OpenClaw,想先了解它的文件结构。请帮我: - 访问 OpenClaw 的 GitHub 仓库,找到项目的 README
- 从 README 中提取:最低系统要求、支持的聊天平台列表、快速启动步骤
- 用表格总结这些信息,帮我判断我的环境是否能跑 OpenClaw
回顾:我们推导了什么
让我们回顾一下这篇文章的思考路径:
- 设问:关掉浏览器,AI 还在吗?→ 不在。它是无状态的。
- 直觉纠正:ChatGPT 的"记忆"只是便签,不是真正的记忆。
- 思想实验:一个真正的 AI 助手需要什么?→ 24 小时进程 + 持久记忆 + 多渠道入口。
- 第一性原理:三个"如果没有"分别推导出 Gateway / Memory / Channel。
- 设计权衡:单进程、Markdown 文件、嵌入式 Agent——每个选择都是"个人可用性"优先。
- 定位区分:LangChain 是工具箱,OpenClaw 是住所。ChatGPT 是对话工具,OpenClaw 是基础设施。
- 核心洞察:从"对话工具"到"常驻实体",是范式转换。 你不需要记住 OpenClaw 的每一个技术细节。你只需要记住一件事:AI 需要一个家,OpenClaw 就是那个家。
延伸阅读
理解了"为什么 AI 需要一个家"之后,接下来的教程会逐步拆解这个"家"的每一个房间:
- 深度教程-04《记忆——AI 怎么记住你》— 深入 Memory 的三层架构:日志 → 提炼 → 身份,理解 AI 怎么从"每天失忆"变成"越用越懂你"
- 深度教程-05《上下文——最贵的资源》— AI 的"工作台"为什么有限,200K token 听起来很多但远不够用,OpenClaw 怎么压缩和剪枝
💬 说人话
这篇讲的是"为什么需要一个家"。后面的教程会讲"这个家里每个房间长什么样"。先理解为什么,再理解怎么做。这就是费曼方法——从问题开始,从原理推导,永远先问"为什么"。