品玩

科技创新者的每日必读

打开APP
关闭

Anthropic 封杀OpenCode :它要拿走你coding的每个细节了

失败是成功之母,也是 Agent 之母

董道力

发布于 7小时前

过去 24 小时,Anthropic 采取了两个动作。第一个动作是大量使用 OpenCode、OpenHands 等第三方工具的 Claude 订阅用户账号被限制,官方解释指向这些工具对订阅权益的非官方接入方式。第二个动作是 Anthropic 推出 Cowork 产品,允许 Claude 直接访问项目文件并在受控环境中执行开发任务。

这不是简单的"关闭后门、开放前门",结合当前 Agent 趋势来看,这两个动作指向同一个战略目标:控制开发者工作流程中产生的数据。

要理解这个判断,需要先理解 AI 训练数据的供给约束正在发生什么变化。

核心竞争正在转移:从生成能力到过程数据

当前 AI 行业面临的约束条件已经改变。过去几年,网页文本、开源代码库、技术文档等公开数据被系统性采集。GitHub 上的数千万代码仓库、Stack Overflow 的问答记录、各类技术博客的教程文章,这些静态数据帮助模型学会了"写代码"——能够根据需求生成语法正确、逻辑清晰的代码片段。

但现在的问题是:模型已经掌握了基本的代码生成能力,却在更关键的能力上遇到了瓶颈。

一个典型场景是这样的:开发者让 AI 编写一个功能模块,AI 生成的代码看起来完全正确,语法没问题,逻辑也说得通。但当开发者把代码集成到实际项目中时,却发现它在特定依赖版本下会报错。AI 不知道为什么会出错,也不知道应该检查哪些环节。开发者手动修复后,AI 依然无法理解这次修复的原理,下次遇到类似问题时还会犯同样的错误。

问题的核心在于:模型知道"正确的代码长什么样",但不知道"如何在不确定环境中建立可靠的行动路径"

这些能力无法从静态代码仓库中学到。因为代码仓库里存放的都是"最终版本"——那些经过反复调试、最终能正常运行的代码。至于开发者在抵达最终版本之前尝试了哪些方案、哪些方案失败了、失败的具体原因是什么、如何定位错误的根源、如何验证修复是否有效——这些完整的因果链条,都在项目的 commit 历史中被压缩成了简单的"fix bug"。

这就是为什么过程数据变得关键。它不是告诉模型"正确答案是什么",而是告诉模型"为什么这条路走不通""如何在错误中建立认知"。

本地工具阻断了数据采集路径

OpenCode 等本地工具对 Anthropic 构成的挑战其实不在于技术风险或收入损失,而在于数据流失。

在标准 API 调用模式下,AI 公司能够获得的信息链条非常有限。用户发送提示词,模型生成代码,用户发送下一个提示词。这个循环看起来完整,但缺失了最关键的信息:生成的代码是否被实际使用,代码运行后是否出现错误,开发者如何修改代码,修改后的结果如何,整个项目的文件结构和依赖关系是什么。

当开发者使用 OpenCode 在本地终端工作时,这些信息对 Anthropic 完全不可见。项目结构和依赖关系、文件修改的完整历史、命令执行的结果和错误日志、多次尝试的完整路径、最终被采纳和被放弃的方案,这些恰好是训练下一代模型最需要的数据类型,但它们都留在了开发者的本地环境中。

这就是所谓的"本地黑箱"问题。对开发者来说,这些信息只是日常工作的自然产物。但对模型厂商来说,这些是真正稀缺的训练素材,因为它们包含了完整的"错误—修正—验证"链路。

回到 Cowork, 这不是一个简单的新界面,而是一个数据采集基础设施。通过提供集成的开发环境,Anthropic 可以合法地采集项目文件结构的完整快照、每次代码修改的差异记录、命令执行的输出和错误信息、开发者的回滚和撤销行为、多个方案之间的选择路径,以及用户最终接受或拒绝的版本。

这些数据的训练价值远超传统的代码文本。它们可以用于训练过程奖励模型,让模型在生成代码的每一步都更可靠。可以用于学习错误诊断策略,让模型知道当某类错误出现时应该检查哪些环节。可以用于理解不同技术决策的长期后果,让模型在架构选择时更谨慎。可以用于建立更准确的代码修改预测模型,让模型知道在什么情况下应该建议重构而不是修补。

Cowork 改变的不是用户界面的友好程度,而是模型厂商能够获得的信号类型。在这个意义上,它标志着 Anthropic 从"提供推理服务"转向"管理开发流程"。

表面上看,Cowork 是一个集成开发环境,让 Claude 能直接访问项目文件、执行命令、查看运行结果。它的官方定位是"提升开发体验"——开发者不用再手动复制粘贴代码和错误信息,Claude 可以自主完成更多任务。

但从数据采集的角度看,Cowork 的真实价值在于:它让之前在本地黑箱中发生的一切,变得对 Anthropic 完全可见

当开发者在 Cowork 中工作时,Anthropic 可以合法地采集项目文件结构的完整快照,可以采集每次代码修改的差异记录,可以采集命令执行的输出和错误信息,可以采集开发者的回滚和撤销行为(哪些修改被认为是失败的、失败后采取了什么补救措施),可以采集多个方案之间的选择路径,还可以采集用户最终接受或拒绝的版本,哪些代码真正进入了项目,哪些被废弃。

这些数据的训练价值远超传统的代码文本。通过观察哪些中间步骤最终导向了成功的解决方案,模型可以学会在生成代码的每一步都做出更可靠的选择,训练出更好的过程奖励模型。

工作流即数据源

Anthropic 的做法不是孤例,而是反映了整个行业的方向转变。

微软的完整生态是这个趋势最成熟的样本。通过拥有 GitHub、VS Code 和 GitHub Copilot,微软已经建立了一个完整的数据采集链条。GitHub 托管了全球最大的代码仓库,不仅有代码本身,还有 issue 讨论、pull request 的审查意见、commit 历史。

这给微软在 AI 能力提升上带来了结构性优势。它不需要猜测"开发者为什么拒绝这个建议",因为它能看到开发者拒绝后自己写了什么、那段代码在后续项目中的表现如何。

OpenAI、Google、Meta 等公司也在推进类似的策略。OpenAI 有 ChatGPT 的 Code Interpreter 和 GPTs,Google 有 IDX 和 Gemini Code Assist,Meta 高价收购 manus 可能就是看中其积累的 Agent 工作流数据。

可以预见,未来一年,竞争焦点将从"谁的模型更强"转向"谁能让更多用户在自己的平台上完成日常任务"。因为只有当用户把工作流程放在你的平台上,你才能采集到完整的过程数据。而完整的过程数据,将决定谁能最快地提升模型的可靠性。

封禁 OpenCode 看起来是一次风控动作,但它揭示的是行业竞争焦点的根本转移。

当静态数据的红利消退,决定下一代 AI 能力的不再是谁爬取了更多代码库,而是谁能采集到更完整的人类决策过程

Anthropic 通过封禁第三方工具和推出 Cowork,实际上是在宣布:上下文图谱战争已经开始。在这场战争里,真正值钱的不是开发者最终写出的那段代码,而是他们到达那里所经过的每一个弯路、每一次回滚、每一个被否定掉的方案。

那些看起来"浪费"的时间,正在变成下一代 AI 最昂贵的训练素材。

但这也引出一个更本质的问题,你愿意把你的过程数据交给 AI 公司吗?换句话说,你正在花钱,训练未来可能替代自己的 AI。

董道力

这家伙很懒,什么也没留下,却只想留下你!

取消 发布
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测