品玩

科技创新者的每日必读

打开APP
关闭

Anthropic推出AI代码审查工具Code Review,聚焦逻辑错误与企业效率

3小时前

品玩3月10日讯,据 TechCrunch 报道,Anthropic在Claude Code中正式推出新功能“Code Review”,旨在应对AI辅助编程带来的代码质量挑战。该工具面向Claude for Teams及Enterprise客户开放研究预览,可自动分析GitHub上的Pull Request,识别逻辑错误并提供可操作的修复建议。

Anthropic产品负责人Cat Wu表示,随着Claude Code显著提升开发效率,企业面临代码审查瓶颈。Code Review通过多智能体并行架构,从不同维度检视代码,由最终聚合器去重并按严重程度分级:红色(高危)、黄色(潜在问题)、紫色(历史关联缺陷)。其重点在于逻辑性缺陷,而非代码风格,以提升开发者接受度。

该工具支持与企业内部规范集成,并提供基础安全分析,深度安全检测则由独立产品Claude Code Security承担。Wu透露,单次审查平均成本约15至25美元,采用基于Token的计费模式。

目前,Uber、Salesforce、Accenture等大型企业已部署Claude Code,Code Review将进一步助力其在保障质量前提下加速交付。

取消 发布

下载品玩App,比99.9%的人更先知道关于「Anthropic」的新故事

下载品玩App

比99.9%的人更先知道关于「Anthropic」的新故事

iOS版本 Android版本
立即下载
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测