
经过9天的等待,OpenClaw迎来了其3.22版本的重大更新。本次升级对插件架构进行了彻底重构,引入了GPT-5.4模型,并显著增强了安全防护能力。
在GitHub连续9天没有更新后,OpenClaw团队终于发布了重磅版本更新。

项目负责人Peter Steinberger正式宣布,OpenClaw「2026.3.22-beta.1」预览版现已上线。
本次3.22版本最核心的更新是对「插件系统」的全面重构。全新的公开插件SDK(openclaw/plugin-sdk/*)已上线,旧有的扩展API被彻底废弃。
同时,OpenClaw官方确认将ClawHub作为插件的首选分发渠道,此举旨在提升插件生态的纯净度与质量。
安全方面也是本次更新的重点。针对Windows用户,系统新增了安全拦截机制,并对执行环境进行了加固。
GitHub发布地址:https://github.com/openclaw/openclaw/releases/tag/v2026.3.22-beta.1
此外,OpenClaw的默认模型配置已升级至GPT-5.4。
其他方面的改进包括:UI交互体验优化、长对话压缩机制的完善、Android端深色模式支持,以及多平台通知逻辑的精细化修复。
新版本一经发布,便在社区引发了热烈反响,许多用户已迫不及待地想要尝试。
如今的OpenClaw,功能更加强大。


停更9天,OpenClaw新版引爆全网
本次更新并非简单的功能迭代,而是一次触及底层架构的重大革新。
早在更新预告阶段,OpenClaw之父发布的一张“龙虾镇场图”便暗示了这9天酝酿的大动作。如今,这个重磅升级终于揭晓,展示了其真正的技术实力。
|
|
|
本次更新的核心要点可概括如下:
- 插件系统重构:彻底弃用旧API,全面启用新SDK,并将ClawHub确立为官方首选插件分发渠道。
- 安全加固:一次性修复了包括Windows凭证泄露、环境变量注入、Unicode审批伪装在内的十余个关键安全漏洞。
- 模型生态扩展:默认模型升级为GPT-5.4,整合了MiniMax M2.7,并正式接入了Anthropic Vertex。
- 体验优化:完善了Android深色模式、飞书交互卡片、Telegram话题自动命名、长对话压缩机制等多项用户体验细节。
插件系统大重构,旧时代正式翻篇
本次3.22版本最核心的变化在于插件生态的彻底革新。
旧的openclaw/extension-api已被完全移除,没有提供兼容层或过渡期。取而代之的是全新的、模块化的openclaw/plugin-sdk/*接口。
这一改动影响深远:所有依赖旧API的第三方插件都需要进行迁移。官方甚至移除了旧有的nano-banana-pro图像生成技能包装器,统一通过agents.defaults.imageGenerationModel路径调用。
同时,插件安装的默认来源也发生了变化。此前执行openclaw plugins install命令会直接从npm拉取包。现在,ClawHub成为首选渠道——只有在ClawHub上找不到的包,才会回退到npm。
此举旨在提升插件质量。npm作为一个通用包管理器,包的质量参差不齐;而ClawHub是由OpenClaw官方维护的插件市场,审核更严格,来源更可控。这标志着插件生态“净化运动”的开始。
另一个值得关注的改进是“生态”兼容性扩展。3.22版本新增了对Claude、Codex、Cursor三大主流开发工具插件包的发现与安装支持,能够将外部插件包中的Skills自动映射到OpenClaw的技能体系中。
这意味着,未来在Cursor等工具中好用的插件,有可能直接迁移到OpenClaw中运行。这一步标志着OpenClaw正从一个封闭的工具框架,向一个能够吸纳外部生态的开放平台迈进。
安全加固:修复多项关键漏洞
如果说插件重构是面向未来的布局,那么安全修复则是对当前最紧迫威胁的回应。3.22版本一次性修复了十余项安全漏洞,其中几项尤为关键。
第一个关键漏洞:Windows上的SMB凭证泄露。
此前,攻击者可以通过构造特殊的file://或UNC路径,在媒体加载环节触发Windows自动发起SMB认证握手。此时,OpenClaw误以为正在加载图片,实际上却可能将用户的Windows登录凭证发送出去。3.22版本在核心媒体加载和沙盒附件路径中全面拦截了这类远程路径。
第二个:执行环境沙盒加固。
新版本直接封锁了MAVEN_OPTS、SBT_OPTS、GRADLE_OPTS等JVM注入路径,堵住了GLIBC_TUNABLES利用通道,并拦截了.NET的DOTNET_ADDITIONAL_DEPS依赖劫持。简而言之,主流构建工具链的环境变量注入攻击途径被一次性封堵。
第三个:Unicode零宽字符审批伪装。 此前发现,攻击者可以利用不可见的韩文填充码位(Hangul Filler)来伪装执行命令的审批提示,使操作者在审批时无法看到真实的命令内容。3.22版本在网关和macOS原生审批界面中全面转义了这类字符。
第四个:语音通话Webhook的预认证防护。 旧版本允许未认证的调用者以1MB/30秒的大缓冲窗口消耗服务器资源。新版本将预认证的请求体读取限制压缩到64KB/5秒,并限制了单IP的并发预认证请求数。
对于公网部署的用户而言,本次更新并非“建议更新”,而是“必须更新”。
模型生态再扩张:GPT-5.4打头阵
在模型层面,3.22版本进行了几项实质性升级。
默认的OpenAI模型已正式切换至GPT-5.4,同时预置了对gpt-5.4-mini和gpt-5.4-nano的前向兼容支持,确保新模型上线后能够无缝接入。
在MiniMax方面,默认模型从M2.5升级到M2.7,并将此前分离的API和OAuth两个插件入口合并为单一的minimax插件,大幅降低了配置复杂度。
另一个亮点是正式接入了Anthropic Vertex——现在可以通过Google Vertex AI直接调用Claude模型,支持GCP认证和自动发现。对于已经在Google Cloud上开展业务的团队而言,这条集成路径价值显著。
此外,xAI的Grok目录已同步至最新版本,Z.AI的GLM也更新到了4.5/4.6系列,Mistral的定价元数据不再显示误导性的“零成本”信息。OpenClaw作为“模型路由器”的定位,正获得越来越多一线大模型厂商的认可。
多平台体验:精细化打磨每个细节
这类更新虽不引人注目,但实际使用体验提升显著。
Android端终于支持跟随系统的深色模式,覆盖了从引导页、聊天页到语音页的全流程。Control UI新增了“圆角滑块”,允许用户自定义界面元素的圆角程度,从锐利到全圆角自由调节。
Telegram方面也有重要更新,新增了DM论坛话题的自动重命名功能——在首条消息进入后,系统会利用LLM生成一个有意义的话题标签,取代原先无意义的ID。同时支持了静默错误回复模式,机器人的报错信息可选择不发出通知提示音。
飞书的升级同样值得关注。新增了结构化交互审批卡片和快捷操作启动卡片,支持了当前会话的ACP和子智能体绑定,并补充了推理流(Reasoning Stream)的渲染功能——AI的思考过程将以Markdown引用块的形式实时显示在同一张卡片中。
浏览器集成方面,旧的Chrome扩展中继路径被彻底移除,转而支持通过userDataDir直接连接Brave、Edge等Chromium内核浏览器。沙盒系统也迎来了架构升级,新增了可插拔的后端支持,首批上线了OpenShell和SSH两个后端,沙盒管理不再绑定Docker单一方案。
9天的沉默,换来的是什么
9天,一次大版本。
这种更新节奏说明一件事:OpenClaw团队已经过了「堆功能冲Star」的阶段,开始认真做工程了。
从升级点中不难看出,这是一款产品在同一时间,朝着「可信赖的AI智能体平台」这个目标,做了一次全面收拢。
这些升级可能不会出现在宣传海报上,但它们决定了谁敢把OpenClaw拉进生产环境。
敢用,比好用更难。
Peter Steinberger和他身后那群全球极客,显然已经想明白了这件事。
龙虾不睡觉。🦞

评论
发表评论