Anthropic 推出 Code Review:用一组 AI Agent 帮你做代码审查

Anthropic 推出 Code Review:用一组 AI Agent 帮你做代码审查


Anthropic 今天发布了 Claude Code 的新功能 Code Review,针对 GitHub 上的每个 Pull Request(代码合并请求)自动派出一组 AI Agent 进行深度审查,目前面向 Team 和 Enterprise 计划用户开放研究预览。
(注意个人用户还用不了)

这个功能的背景:过去一年,Anthropic 内部工程师的代码产出增长了 200%,代码审查成了瓶颈。他们发现客户也面临同样的问题,开发者疲于应付,很多 PR 只是被快速扫一眼,而非认真审读。

Code Review 的工作方式是:当 PR 提交后,系统自动派出多个 Agent 并行查找 bug,交叉验证以过滤误报,再按严重程度排序。

最终在 PR 上生成一条汇总评论,外加逐行的具体标注。大型复杂的 PR 会分配更多 Agent 做更深的审查,小改动则轻量处理,平均审查时间约 20 分钟。

Anthropic 自己已经内部使用了几个月。使用前,只有 16% 的 PR 能收到实质性审查意见;使用后,这个比例升到了 54%。

在超过 1000 行改动的大 PR 中,84% 会被发现问题,平均每个 PR 找出 7.5 个问题。工程师对结果的认可度很高,不到 1% 的发现被标记为误报。

他们举了个例子:一个看起来很常规的单行改动,实际上会导致生产环境的身份认证功能失效。Code Review 把它标记为严重问题,提交代码的工程师事后承认自己不会注意到这个问题。

不过这个功能不便宜。它按 token 用量计费,每次审查平均花费 15 到 25 美元,随 PR 规模浮动。管理员可以设置月度预算上限、选择启用的仓库,也有分析看板追踪使用情况。

值得注意的是,Code Review 不会自动批准 PR,最终是否合并仍由人决定。它的定位是补上人工审查的盲区,而非取代人类审查者。

Anthropic 此前已有开源的 Claude Code GitHub Action 做轻量审查,这次的 Code Review 是更重量级、也更贵的选项。 http://t.cn/AXVXCz6o
分类