一个项目不到三个月换了四次名字,每换一次,全球几万开发者的安装脚本就集体报废一次。但骂归骂,Star 照刷——截至2026年3月,OpenClaw 拿下了超过 32 万 GitHub Stars,是开源历史上增长最快的项目之一。更魔幻的是,围绕它已经长出了 52 个衍生项目,覆盖 9 种编程语言,合计超过 61 万 Stars。
名字的混乱本身就是隐喻。当一个新物种刚从海底热泉口冒出来的时候,连它自己都不知道该叫什么。而整个行业对"本地 AI Agent"这个品类的命名、定义和边界,同样没有共识。
名字终于稳住了。但围绕它的生态裂变,才刚刚开始。
一、从一个人的 WhatsApp 机器人到 32 万星
OpenClaw 的诞生没有商业计划书,没有融资发布会,甚至没有正式的项目立项。
2025年11月,奥地利开发者 Peter Steinberger 给自己搭了一个 WhatsApp 机器人。他是 PDF 开发工具公司 PSPDFKit 的创始人,将公司经营了13年后出售。休息期间,他被各种日常琐碎事务困扰——邮件、日历、重复性的信息处理,于是写了一段代码,把 Claude 的 API 和 WhatsApp 打通,让 AI 帮他处理日程、草拟回复、查资料。
这不是什么新鲜想法。2025年做 AI 聊天机器人的项目多如牛毛。但 Steinberger 多做了一步:他不满足于 AI 只能"说",他让 AI 能"做"——给了它 shell 访问权限、浏览器控制能力和本地文件读写权限。他的机器人不只是一个能回消息的助手,而是一个能在他电脑上动手操作的代理人。
这个决定改变了一切。
2026年1月底,项目开源后撞上了某种时代情绪。GitHub Star 数在72小时内突破 6 万,一个月内突破 10 万。开发者们疯狂涌入,不是因为代码写得多优雅,而是因为它戳中了一个真实的痛点:所有人都在用大模型聊天,但没有人给大模型配上手和脚。
紧接着就是那场著名的改名风波。项目最初叫 Clawdbot——"Clawd"是"claw"和"Claude"的合体,龙虾的钳子是项目 logo。Anthropic 的法务团队注意到了名字与 Claude 的近似度,发来了一封"礼貌但坚定"的信。Steinberger 在一天之内改名为 Moltbot(“molt"是甲壳类动物蜕壳的意思),但他自己很快承认"这名字不太顺口”。两天后,项目更名为 OpenClaw,取"开源"与"钳子"的双关含义。后两次改名在72小时内完成,社区一度混乱,但增长不减。
2026年2月,Steinberger 加入 OpenAI,OpenClaw 项目转入基金会独立运营。创始人离开、项目反而加速增长,这本身就说明品类的势能已经超越了个人。
有人会问:2023年的 AutoGPT 也火过,BabyAGI 也火过,最后不都凉了?
这个质疑值得认真回应。AutoGPT 和 BabyAGI 走的是"全自主"路线——给 AI 一个目标,让它自己拆解、自己执行、自己评估,人类退到旁观者位置。听起来很性感,但当时的模型能力撑不住,Agent 在无意义的循环里空转,烧掉大量 Token 却完不成实际任务。
OpenClaw 走了一条不同的路。它不是让 AI 完全自主行动,而是让人通过 IM 指挥 AI 执行——人定方向,AI 干活。这种"人在回路中"的设计把可靠性拉回了实用区间。同时两年间大模型的工具调用能力有了质的飞跃,2025年底的模型在函数调用的准确率和稳定性上远超2023年的水平。
这不是又一轮概念炒作的重演,而是模型能力、交互范式和工程成熟度三个变量同时越过了临界点。上一轮留下的是"demo 很酷但没人真用"的遗憾,这一轮留下的是 32 万开发者在自己机器上跑着的、每天消耗真实 Token 的活跃实例。
开发者追的不是品牌,是品类。当一个品类的需求足够强烈,连名字都挡不住它。
二、OpenClaw 到底做了什么不同
社区给 OpenClaw 最流行的一句评价是:"Claude, but with hands。"这句话传播力很强,但只说对了三分之一。
要理解 OpenClaw 定义的这个品类,需要同时看清它与三类既有产品的边界。
和传统 RPA 比,区别在"脑子"。RPA 是规则驱动的——你得提前画好流程图,告诉它"如果 A 则 B"。UI 变了、流程变了,整条链路断裂。OpenClaw 背后站着大语言模型的语义理解,不需要你定义每一步,理解意图后自己规划路径。按钮换了位置,它能重新找到。
和 ChatGPT、Claude 等云端大模型比,区别在"手脚"。大模型能帮你写一封邮件草稿,但它发不出去。它能告诉你文件该怎么改,但碰不到你的文件系统。OpenClaw 把这层隔膜捅破了——直接运行在你的机器上,拥有 shell 访问权限、浏览器控制权和文件读写能力。不是在云端给你建议,而是在本地帮你干活。
和 Claude Code、OpenAI Codex 这类开发者工具比,区别在"活法"。Claude Code 是一个 CLI 工具,你打开终端、输入指令、它执行、然后退出。OpenClaw 是一个常驻后台的守护进程,通过 WhatsApp、Telegram、Slack、飞书和你交互,有心跳机制,默认每30分钟主动醒来一次检查有没有该做的事。你不找它,它也会找你。
所以更准确的说法不是"Claude, but with hands",而是:一个跑在你自己机器上的、通过聊天软件操控的、永远在线的 AI 执行者。
本地优先、IM 交互、自主执行——这三个特征叠加在一起,构成了"AI Agent 运行时"这个品类的最小定义。
三、52 个项目的寒武纪大爆发
OpenClaw 不再是一个项目,而是一个物种群。
根据生态追踪平台 Shelldex 的数据,截至2026年3月中旬,围绕 OpenClaw 模式已经出现了 52 个独立项目,覆盖 9 种编程语言,合计超过 61 万 GitHub Stars、10 万次 Fork。从零到这个规模,只用了不到两个月。
真正值得关注的是这 52 个项目并不是简单的复制粘贴,而是沿着六条清晰的路线在分化。
**极简派在做减法。**NanoClaw 把核心剥到最薄,PicoClaw 用 Go 重写并瞄准嵌入式设备,BashoBot 只用 Bash 脚本和 curl 就实现了完整的 Agent 循环。它们的哲学是:Agent 本质上就是"读上下文→调模型→执行工具→循环",其他一切都是多余的。
**安全派在补课。**IronClaw 用 Rust 构建了基于能力令牌的沙箱模型,灵感来自 seL4 微内核。Carapace 加了全量审计日志,每一次文件访问、网络请求都写入不可篡改的账本。这些项目直接回应了2026年初的安全风暴:CVE-2026-25253 的 WebSocket 劫持漏洞让恶意网页能控制你的 Agent;Cisco 审计了 31,000 个技能包,26% 存在漏洞;仅二月第一周就有 230 多个恶意技能被上传到 ClawHub。
**企业派在做加法。**Cloudflare 的 Moltworker 让 Agent 跑在全球边缘节点上,AionUi 提供团队协作管理界面,ClawWork 专注多 Agent 编排。Agent 从个人玩具走向企业工具,运维、权限、协作这些"无聊但关键"的工程问题必须被解决。
**记忆派在探前沿。**Nanobot(35,000+ Stars)是香港大学数据科学实验室的研究项目,memU 探索多层持久化记忆,MemOS 把记忆当操作系统资源来管理。Nous Research 的 Hermes Agent 走得最远:Agent 解决问题时自己编写可复用的技能文档,越用越强。
**移植派在换引擎。**ZeroClaw 用 Rust 重写拿下 28,000+ Stars,NullClaw 用 Zig 做到亚10毫秒冷启动,MimicLaw 用纯 C 做到极致二进制尺寸。动机很直接:一个拥有 root 级权限的进程跑在没有内存安全保障的 Node.js 上,这件事让系统程序员夜不能寐。
**异见派在另起炉灶。**AstrBot(26,000+ Stars)重新设计了多平台消息路由和插件系统,Moltis 从工具编排层彻底重构。它们不是要做"更好的 OpenClaw",而是在回答一个更根本的问题:AI Agent 的架构到底应该长什么样?
作为参照,Linux 用了十几年才形成 Debian、Red Hat、Arch 等主要发行版的格局。OpenClaw 生态在两个月内就走完了类似的路径。这既说明品类需求强烈,也暗示远未到收敛的时候——六条路线中哪条最终跑出来,现在没有人知道。
四、中国的"全民养虾"与 IM 控制平面
OpenClaw 在海外是开发者社区的狂欢,到了中国变成了一场全民运动。
2026年3月,“养虾"成为中文互联网最热的科技关键词之一。OpenClaw 的龙虾 logo 让中国用户把部署和调教 Agent 的过程称为"养虾”,这个昵称迅速出圈。朋友圈里有人晒自己的"虾"帮忙炒股,闲鱼上代部署一只"虾"标价50到300元,淘宝出现了"虾缸"(硬件盒子)和"虾粮"(API Token 充值卡)的组合套餐。上市公司闻风而动,青云科技宣布 QingCloud 云平台完成 OpenClaw 全版本适配并推出一键部署模板。金沙江创投的朱啸虎公开看好,认为"养成概念"带来的参与感是传统 MaaS 不具备的。NVIDIA CEO Jensen Huang 在2026年3月的 CNBC 采访中直接将 OpenClaw 称为"definitely the next ChatGPT"。
中美"养虾"的差异揭示了更深层的产业逻辑:美国用户把 Agent 当同事,核心是自动化高价值商业流程——有人让 Agent 帮忙压价买车省了 4200 美元,有人让它自主打赢保险理赔官司;中国用户把 Agent 当宠物,给它起名字、晒成长记录、比谁的"虾"更聪明。文化差异之下,共同的方向是一致的:AI 正在从"对话智能"走向"行动智能"。
在这个趋势里有一条容易被低估的线索:IM 正在成为 Agent 的控制平面。OpenClaw 的交互入口不是网页、不是 App,而是你已经在用的聊天软件。在传统模式下你要用一个工具就得打开它——登录、启动、进入。在 IM 模式下,Agent 在你的对话列表里和同事、家人并列。你出差路上通过微信给家里的 Agent 发条消息,它就能整理 NAS 文件、检查摄像头画面、把会议纪要发给同事。没有额外入口,没有额外登录。
当钉钉、飞书、企业微信本身就是企业工作流的主动脉,把 Agent 植入 IM 意味着 Agent 直接嵌入了业务流。这不是交互方式的优化,这是分发渠道的重构。
五、三条结构性趋势
喧嚣之下,三条演化主线正在塑造这个品类的未来。
第一条线:从"能跑"到"好用"到"产品化"。
OpenClaw 的早期用户画像很窄——会命令行、能配 Node.js、敢开 shell 权限。这个门槛正在被快速削平。QClaw、EasyClaw 把环境依赖打包成桌面应用,腾讯云 Lighthouse 和 DigitalOcean 提供一键部署模板。产品形态沿着一条清晰路径演进:源码编译 → 一键部署 → 托管化+隔离化+产品化。
这条路径的终点指向硬件。当 Agent 需要 7×24 小时常驻、需要与传感器和执行器交互、需要断网时仍能工作,一台专用的边缘设备就成了刚需。这不是噱头,而是产品化的必然结果。
第二条线:安全隔离从"建议"变成"准入门槛"。
2026年初的安全事件给整个生态敲了重锤。CVE-2026-25253 意味着点击一个恶意链接就能完全控制你的 Agent,而 Censys 发现当时超过 21,000 个实例直接暴露在公网上。Cisco 审计的 31,000 个技能包中超过四分之一有漏洞,ClawHub 排行榜第一名竟然是伪装成工具的恶意软件。
微软已经建议 OpenClaw 在隔离环境中运行。技能市场走向签名化和白名单机制。对于任何想把 Agent 卖给企业客户的人,硬件级虚拟化隔离正在从加分项变成及格线。
第三条线:Agent 从云端走向边缘。
驱动力是成本。实测数据显示单次请求平均消耗约 66,000 Token,拆开看:系统提示词约 30,000,工具定义约 20,000,历史上下文约 15,000,用户实际指令只有约 1,000。每次请求中真正的新信息不到 2%,其余是重复传输的背景知识。中度用户月度 API 成本在 800 到 1700 元之间。
这个成本结构指向一个优化方向:把不需要云端大模型的任务卸载到本地。语音识别和合成只需 2 到 6 TOPS 端侧算力,7B 参数小模型能完成大部分意图分类,YOLO 类视觉检测在 2 TOPS 下就能实时推理。真正需要云端出手的是涉及复杂推理和跨领域知识的任务,而这类任务在日常使用中的占比远低于直觉预期。社区部署经验显示,ASR/TTS 本地化加简单意图路由后,云端调用量下降约 15% 到 25%,具体取决于语音交互和简单任务的占比。更关键的是,本地化带来的离线可用性和数据隐私保障,在企业场景中往往比省钱更有决策权重。
**这里隐含着一个正在被重新认知的产业分工:边缘硬件不是要取代云端大模型的"大脑",而是要成为 Agent 的"身体"。**大脑负责思考,身体负责行动。本地设备决定 Agent 能触达什么物理场景,云端模型决定 Agent 有多聪明。二者是协同关系,不是替代关系。这个分工一旦确立,从芯片到整机到系统集成,整条边缘硬件产业链都会被 AI Agent 的需求重新定价。
六、冷思考——泡沫与真需求的分界线
趋势是真的,但节奏未必如多数人预期的那么快。
首先是可靠性。Agent 处理简单任务已经相当流畅,但进入多步骤、跨系统的复杂工作流后失败率陡然上升。模型幻觉、工具调用出错、上下文丢失——这些问题没有因为框架成熟而消失,只是从聊天窗口转移到了执行链路上。而执行链路上的错误代价远高于一段错误文本:一个写坏的 SQL 查询、一封发错的邮件、一次误触发的 API 调用,后果实实在在。
其次是成本的不确定性。Agent 的运行成本是与使用模式高度相关的变量。单次 66,000 Token 意味着每次交互都在消耗真金白银,而心跳机制让成本更难预测。已有用户因配置不当导致 Agent 死循环,一觉醒来账单多了几千块。当工具的运行成本取决于模型的"心情"而非确定性逻辑,大规模商用的前提还没完全成熟。
然后是变现的冷现实。"养虾全景报告"对28个真实案例的分析指向一个结论:目前从 OpenClaw 直接获利的群体高度集中在"卖铲子"一侧——代部署商、教程作者、硬件商、API 分销商。真正用 Agent 产出可量化回报的案例,要么来自技术很强的开发者,要么来自有明确场景的专业人士。对既没技术背景也没清晰场景的用户,"养虾"更像带有学习属性的娱乐消费。
还有一个更深层的风险:大模型厂商自己在补齐 Agent 能力。Anthropic 的 Claude Code 已扩展为 Cowork 模式,OpenAI 的 ChatGPT 推出了 Agent mode(OpenClaw 创始人 Steinberger 本人也已加入 OpenAI),Google 的 Project Mariner 在探索浏览器自主操作。这些官方产品有更好的模型适配、更低的集成摩擦、更强的品牌信任。
OpenClaw 类开源方案能守住的护城河在哪?可能藏在四个官方产品在架构上很难提供的特性里:数据主权——敏感数据不出本地;离线可用——断网时核心技能仍可执行;IM 灵活性——对接微信、飞书、钉钉这些中国企业的真实入口;端侧硬件集成——连接摄像头、传感器、执行器,深入物理世界。这四条的共同点是都依赖"跑在你自己设备上"这个前提,而这恰恰是云端官方产品做不到或不愿做的。但这个护城河能撑多久,取决于需要这些特性的场景到底有多大。
每一个后来改变世界的技术品类,在早期都经历过"多数人赔钱、少数人赚钱、卖铲子的最赚钱"的阶段。1990年代的个人网站、2010年代的移动 App、2016年的微信公众号,概莫能外。关键区别在于:你是在泡沫期当炮灰,还是在消退后带着真实场景和工程能力入场收割价值?
七、给芯片行业的一个注脚
泡沫归泡沫,但泡沫退去后硬件需求是实的。
AI Agent 边缘化的硬件需求画像,和过去几年芯片行业追逐的"算力竞赛"有本质差异。Agent 的端侧载体不需要跑千亿参数大模型——那是云端的活儿。它需要的是一个特定组合:够用的 AI 推理算力(几个到几十个 TOPS,覆盖 ASR/TTS、视觉检测和 7B 级小模型)、丰富的 IO 接口(连接摄像头、麦克风、传感器、执行器)、足够低的功耗(7×24 常驻,不能成为电费黑洞)、以及硬件级安全隔离能力(虚拟化、可信执行环境,满足企业合规)。
这个组合不完全对应任何现有芯片品类。不是手机 SoC,不是传统 MCU,不是服务器芯片,也不是传统 IPC 芯片。它更接近一个新的"边缘 AI Agent 芯片"细分赛道,目前能精确匹配这个需求的产品并不多。
对 RISC-V 阵营来说,这可能是一个值得关注的卡位窗口。开源架构的零授权费天然适合大规模边缘节点铺设场景,指令集可扩展性允许针对 Agent 负载做定制优化,"自主可控"的叙事在当前地缘环境下对政企客户有实际的采购决策影响力。当然挑战同样清晰:软件生态成熟度、开发者工具链完善程度、性能功耗比能否真正优于同级 ARM——这些需要用产品而非 PPT 来回答。
当一个新的应用品类正在定义新的硬件需求模板,而这个模板尚未被任何既有玩家牢牢占据——对芯片公司来说,这通常是值得投入资源认真评估的时间窗口。
回头看,OpenClaw 最重要的贡献可能不是这个项目本身的代码,而是它把"本地优先、自主可控的 AI Agent 运行时"从少数极客的脑海推成了 32 万开发者用脚投票确认的真实品类。
品类定义者不一定是最终赢家。Docker 定义了容器,但 Kubernetes 赢了编排;Netscape 定义了浏览器,但 Chrome 吃掉了市场。OpenClaw 的 32 万星能否转化为持久壁垒,52 个项目中谁会成为下一个"发行版"级的存在,边缘硬件和云端大模型最终形成什么产业分工——这些问题现在都没有答案。
但有一件事已经确定:AI Agent 从"能说"到"能做"的品类跃迁已经发生,且不可逆。
问题不是这个品类会不会成立——32 万星和 52 个项目已经替你回答了。问题是:当 AI Agent 的身体需要一个物理载体时,谁来造这个身体?


