本报告系统性梳理了Anthropic封杀OpenClaw及其第三方工具的完整事件脉络,从时间线、经济动因、平台战略、行业影响等多维度展开深度分析,并附各方反应与后续走向研判。

一、事件完整时间线

1.1 诞生(2025年11月)

奥地利开发者Peter Steinberger发布了名为Clawdbot的开源AI Agent项目("Clawd"取自Anthropic旗舰模型Claude的名称)。这是一个运行在用户本地机器上的个人AI助手,可以通过iMessage、Slack、Telegram、WhatsApp、Discord等常见通讯工具7×24小时接收指令,完成真实工作:写邮件、管理文件、创建应用、代替用户投简历、管理营销活动等。项目迅速在开发者社区引发热潮,被称为"现象级"产品。

1.2 强制更名(2025年12月)

Anthropic向Steinberger发出商标侵权停止令(cease-and-desist),要求将"Clawdbot"改名。Steinberger被迫将项目更名为Moltbot,但社区反响不佳,最终在2026年1月初再次更名为OpenClaw。Anthropic通过这一步建立了品牌距离,同时未真正阻止项目发展。

1.3 病毒式传播与生态爆发(2025年12月–2026年1月)

OpenClaw成为最热门的开源AI Agent框架,GitHub星标快速增长,衍生出大量fork和托管服务:

多家大厂(包括AWS、Cloudflare等)主动与OpenClaw合作,提供集成方案。2026年1月初,OpenClaw已拥有数十万活跃用户,成为开源AI Agent领域的事实标准。

1.4 封杀行动(2026年1月9日)

关键转折点。 Anthropic在服务器端部署了新安全策略,无预警地阻止订阅OAuth Token用于第三方工具。所有通过Claude Pro/Max订阅的OAuth凭证访问Claude API的第三方工具,包括OpenClaw、OpenCode(超10.7万GitHub星)、Cline、RooCode等,在一夜之间集体报错:

"This credential is only authorized for use with Claude Code
and cannot be used for other API requests."

1.5 政策成文化(2026年2月底)

Anthropic在Claude Code官方文档中新增"法律与合规"页面,白纸黑字写明:

"Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service."

— Anthropic Claude Code 官方文档

即使用Anthropic自家Agent SDK也不例外。官方政策确认:订阅OAuth Token只能用于官方Claude Code CLI,所有第三方工具均需使用按量付费的API Key。

1.6 创始人被收购(2026年2月15日)

OpenAI CEO Sam Altman在X上宣布:Peter Steinberger加入OpenAI,担任"个人Agent下一代"负责人。OpenAI承诺OpenClaw将转入一个基金会保持开源独立运营,OpenAI将持续赞助。Steinberger表示:"我想改变世界,而不是建立一家大公司,与OpenAI合作是实现这一目标的最快方式。" 扎克伯格本人曾亲自通过WhatsApp联系Steinberger,试图招募他加入Meta。

1.7 最后一击:Claude Code Channels(2026年3月下旬)

Anthropic发布Claude Code Channels,让用户可以通过Discord和Telegram直接与Claude Code对话,从手机远程控制本地AI Agent——这正是OpenClaw最核心的差异化功能。Anthropic用四星期时间逐一复制了OpenClaw的所有关键功能:

OpenClaw功能Anthropic Claude Code响应
定时任务(Cron)官方定时任务功能
自动记忆(Auto Memory)Native Memory持久化
插件生态官方Plugin System + MCP
远程控制(iMessage/Telegram等)Claude Code Channels
Claude Opus/Sonnet模型能力Claude 4系列发布(1M Context)

Claude Code Channels通过Model Context Protocol(MCP)开源标准构建,直接打击OpenClaw的最后一个"杀手锏"。Anthropic工程师甚至公开发推:"你可以在Mac Mini上运行Claude Code Channels",暗示官方方案更安全、更集成。

二、Anthropic封杀的深层原因分析

2.1 经济动机:平价订阅 vs 天价API成本

这是最直接、最核心的动因。核心矛盾如下:

计费方式月费用重度使用等效API成本
Claude Max订阅~$200/月(固定)API同等用量超过$1,000
按量API(Claude Opus)按Token计费重度Agent任务每天可达$50+

OpenClaw等工具通过OAuth Token将固定月费的订阅"改造"成无限制的API用量,对Anthropic形成了严重的订阅套利(subscription arbitrage)。一个重度用户每月可能消耗$1,000+的API价值,却只付$200订阅费。Anthropic的商业模型根本无法支撑这种用法的大规模普及。

2.2 "Ralph Wiggum"自愈循环加速危机

2025年底,开发者圈流传一种"Ralph Wiggum"技术——让Claude陷入自主自愈循环(autonomous self-healing loops):将失败信息回填到上下文窗口,反复触发直到测试通过。在Anthropic自家Claude Code中,由于有速率限制和遥测监控,这一玩法的成本可控。但第三方工具去掉这些护栏后,Token消耗失控。

Anthropic甚至在官方Claude Code中发布了Ralph Wiggum插件(因为在自己的工具里他们能控制速率)。这说明问题不是玩法本身,而是第三方无节制使用。

2.3 平台控制权:围墙花园战略

Anthropic正在执行一套清晰的Apple式平台战略

  1. 第一阶段(2022-2024):开放API,鼓励第三方集成,扩大生态
  2. 第二阶段(2025至今):收紧控制,收回生态,强化官方工具

这不是临时起意,而是有步骤的:

每一步都在系统性地将高价值用户从第三方工具引导回官方产品。

2.4 安全与责任规避

OpenClaw需要用户授予本地文件的读写权限,理论上可以执行任意代码、访问隐私数据。Anthropic作为模型提供方,对这种"不可控的第三方Agent"带来的安全风险负有潜在的道德和法律责任。通过封堵第三方工具,Anthropic将用户锁定在经过安全审核的官方Agent框架内,降低了模型被滥用的风险和连带声誉风险。

2.5 企业市场的护城河逻辑

Anthropic在企业AI市场占据约40%份额(约为OpenAI的两倍),主打"安全、可审计、负责任"。企业买家愿意为"一致性"和"安全性"溢价付费。OpenClaw这类开源工具的失控扩散,与Anthropic的企业品牌定位形成了根本冲突。封杀OpenClaw,是在保护Anthropic在企业市场精心维护的品牌信誉。

三、对OpenClaw用户和生态的影响

3.1 直接冲击

3.2 OpenClaw的应对

OpenClaw从设计之初就支持OpenAI兼容API端点,可接入几乎所有主流模型提供商。封杀事件后,OpenClaw加速了多提供商架构的完善:

3.3 生态系统重塑

类型影响后续发展
OpenCode等第三方工具OAuth被封,需改用API Key迅速支持多模型切换
NanoClaw/KiloClaw需重构认证层转向BYOK模式
企业托管版本安全审查更严格Nvidia等推出企业加固版
OpenClaw主仓库创始人离开,加入OpenAI转入基金会,OpenAI赞助

3.4 用户信心受损

开发者社区普遍对Anthropic的"无预警封锁"表达不满。大量用户在Hacker News、Reddit、X等平台表达了对平台风险(platform risk)的担忧:"如果一个模型提供商可以随时改变规则、封锁你的工作流,你还能信任它吗?"

四、各方反应

4.1 George Hotz(geohot)

知名黑客、Comma.ai创始人,在博客中发表《Anthropic is making a huge mistake》:

"你不会把用户逼回Claude Code,你会把用户逼向其他模型提供商。这些行为清楚地表明,OpenCode只是一个开始——如果你不按Anthropic想要的方式使用Claude Code,他们就会切断你。"

"First they came for opencode, And I did not speak out, Because I did not use opencode."

— George Hotz, geohot.github.io

4.2 DHH(David Heinemeier Hansson)

Ruby on Rails创始人、Basecamp联合创始人,在X公开批评这是"very customer hostile"(对用户极度不友好)的行为。

4.3 Gergely Orosz

《Pragmatic Engineer》作者,结论是Anthropic"happy to have pretty much no ecosystem around Claude"(乐于让Claude几乎没有生态)。

4.4 AWS Hero AJ Stuyvenberg

"他们正在以比任何退出(exit)都快的速度完成从'可原谅的创业公司'到'可憎的公司'的加速旅程。"

— AJ Stuyvenberg, AWS Hero

4.5 辩护声音

并非一边倒的批评。部分开发者认为:

4.6 支持Anthropic的评论(Reddit r/ClaudeAI)

"Anthropic做了完全正确的事。OpenClaw在安全上是一个 documented disaster(已记录在案的安全灾难)。企业买家要的是一致性和安全性,不是开源自由。Anthropic在下一盘很长的棋。"

— Reddit r/ClaudeAI

4.7 Peter Steinberger本人

2026年2月16日,Steinberger在个人博客写道:

"过去一个月像旋风一样,我从未想到我的试验项目会激起如此大的波澜。互联网再次变得疯狂,看到我的工作在全球启发这么多人,真的令人难以置信。"

"我想改变世界,而不是建立一家大公司。与OpenAI合作是让AI Agent普及的最快方式。"

"OpenClaw将转入一个基金会,保持开源独立——我与OpenAI的共同愿景是一致的。"

— Peter Steinberger, steipete.me

4.8 行业分析师

Epsilla发表深度分析《The Platform Squeeze》,指出这是经典的"平台挤压"模式:

五、后续走向与行业趋势预测

5.1 多提供商成为默认架构

OpenAI兼容API已事实上成为行业标准,OpenRouter和LiteLLM等网关使模型切换成本极低。开发者正在将"AI模型"视为可替换组件,而非锁定点。这直接削弱了任何单一模型提供商的锁定能力。

5.2 开源模型加速追赶

模型发布时间MMLU差距API价格(每百万Token)
Claude Sonnet2024参照$3 / $15
DeepSeek R12025年1月已接近前沿$0.28 / $0.48
Qwen 3.52026年2月领先开源$0.40 / $2.40
GLM-52026年2月开源第一$1.00 / $3.20

开源与闭源模型之间的能力差距从17.5分压缩至0.3分(MMLU)。当Claude Opus卖$15/百万输入Token,而DeepSeek V3.2只需$0.28时,价格套利的逻辑彻底改变。

5.3 企业护城河:专有数据语义图

分析普遍认为,Agent服务的真正护城河不是UI或工作流,而是私有的行业/企业数据语义图。Anthropic可以复制OpenClaw的界面,但无法复制你的公司内部知识(代码库、客户数据库、内部文档)。这成为Agent-as-a-Service创业公司的核心差异化方向。

5.4 Anthropic的战略风险

短期来看,封杀OpenClaw保护了收入。但长期风险明显:

5.5 OpenClaw的最终走向

截至2026年4月:

六、核心结论

Anthropic封杀OpenClaw并非偶发摩擦,而是一场精心策划的"平台绞杀"。

  1. 经济动因是核心:固定月费的订阅模式无法支撑无限制的Agent化消耗,封杀OAuth是防止订阅套利的必然选择
  2. 四步执行精准:更名→断粮(封OAuth)→功能复制→Channels终结——是一场教科书式的平台挤压行动
  3. 开发者社区产生深远不信任:"平台风险"从一个概念变成开发者共识,多模型架构从趋势变成必须
  4. 开源生态加速成熟:DeepSeek R1、Qwen 3.5等开源模型的崛起,为开发者提供了Anthropic之外的真正选择
  5. Steinberger加入OpenAI是双赢:OpenAI获得顶级Agent人才,OpenClaw获得资金支持,Steinberger获得前沿研究资源——Anthropic反而成了"黄埔军校"

这一事件将成为AI平台生态史上的经典案例,深刻影响未来模型提供商与第三方开发者之间的博弈规则。

参考来源

  1. OpenClaw官方博客 - Anthropic Banned Third-Party Tools. Here's What It Means. (openclaw.rocks)
  2. PC World - What's behind the OpenClaw ban wave
  3. Epsilla - The Platform Squeeze: How Anthropic's Claude Code Channels Killed OpenClaw
  4. VentureBeat - Anthropic just shipped an OpenClaw killer called Claude Code Channels
  5. The New Stack - Anthropic: You can still use your Claude accounts to run OpenClaw
  6. geohot.github.io - Anthropic is making a huge mistake (2026.1.15)
  7. Peter Steinberger - OpenClaw, OpenAI and the future (steipete.me)
  8. TechCrunch - OpenClaw creator Peter Steinberger joins OpenAI (2026.2.15)
  9. Fortune - What OpenAI's OpenClaw hire says about the future of AI agents (2026.2.17)
  10. LinkedIn - Why Google and Anthropic banned OpenClaw (Christian Moser)
  11. Hacker News - Anthropic officially bans using subscription auth for third party use (2026.2)
  12. Reddit r/ClaudeAI - Anthropic officially bans using subscription auth for third party use
  13. Reddit r/ClaudeAI - Anthropic did the absolute right thing
  14. Medium - Is this the biggest mistake by Anthropic??
  15. Towards AI - OpenClaw Was the Future of AI. Then Big Tech Banned It, Broke It, and Bought It