如何审查 AI 生成的代码?Claude Code 作者的 3 个实战经验

如何审查 AI 生成的代码?Claude Code 作者的 3 个实战经验

分享:

半夜十二点,你盯着 AI 刚生成的 200 行代码,鼠标悬停在"提交"按钮上。

它看起来完美无缺——逻辑清晰、命名规范、甚至还有注释。但你心里有个声音在问:这代码真的靠谱吗?

这不是个例。随着 Claude CodeCursorGitHub Copilot 这些工具的普及,开发者们都在面对同一个难题:AI 写代码很快,但我怎么知道它写对了?

有人在 Twitter 上向 Claude Code 的作者 Boris 提出了这个问题。Boris 的回答很实在,没有废话,只有 3 条经过验证的实战经验。

1. 默认使用 Plan 模式

先别急着让 AI 动手,让它先说清楚打算怎么干。

这是 Boris 给出的第一条建议,也是最容易被忽视的一条。

很多人用 AI 编程工具的方式是这样的:

  • "帮我实现一个登录功能"
  • AI 开始疯狂输出代码
  • 几分钟后你得到一堆文件
  • 然后你开始头疼——这都改了啥?

Plan 模式的工作方式完全不同:

  1. AI 先告诉你它的实现方案——会改哪些文件、用什么技术栈、如何处理边界情况
  2. 你有机会在代码写出来之前纠正方向——"不对,我们用的是 PostgreSQL 不是 MySQL"
  3. 最后才是真正的代码实现——此时你已经对整个方案了然于胸

这就像装修房子——你不会让装修队直接开工,而是先看设计图。代码也一样。

实际效果:

  • 避免大量返工(AI 一开始就走对方向)
  • 提前发现架构问题(改 10 行设计比改 1000 行代码容易)
  • 你对代码库保持掌控感(知道每个改动的来龙去脉)

2. 给 AI 一个验证机制

好的审查不是靠肉眼,而是靠可执行的验证。

Boris 的第二条建议更狠:让 AI 自己证明代码是对的。

具体怎么做?给它提供验证手段:

单元测试:

"实现这个功能,并且确保所有测试都通过"

AI 会边写代码边跑测试,发现问题立刻修正。这比你事后发现 bug 再回来改效率高十倍。

可视化验证:

  • 前端功能?打开浏览器扩展或者开发者工具,让 AI 看到实际效果
  • 移动端?接入 iOS/Android 模拟器,AI 能直接看到 UI 渲染结果
  • API 接口?用 Postman 或 curl 验证响应数据

关键点在于:不要让 AI 只管输出代码,而要让它看到代码运行的结果。

这就像考试时不仅要交答卷,还要当场对答案。有反馈回路的 AI 比盲写代码的 AI 靠谱得多。

实际效果:

  • AI 生成的代码质量大幅提升(有验证就有质量保证)
  • 减少你手动测试的时间(AI 已经帮你跑过一遍了)
  • 发现边界情况的能力更强(测试会覆盖你没想到的场景)

3. 用 /code-review 自动化审查

最后一条,也是最容易上手的一条:别自己逐行审查,让工具帮你干。

Claude Code 内置了 /code-review 命令,它会:

  • 检查代码风格和最佳实践
  • 发现潜在的性能问题
  • 识别安全漏洞(SQL注入、XSS等)
  • 指出可能的逻辑错误

但 Boris 强调了一个关键原则:对 AI 生成的代码,要和人写的代码保持同样的标准。

很多人会不自觉地降低要求:"AI 写成这样已经不错了。"错。

正确的做法:

  • 该有的单元测试一个不能少
  • 该加的错误处理必须加
  • 性能优化不能含糊
  • 安全问题零容忍

自动化审查工具就是帮你守住这条底线的——它不会因为代码是 AI 生成的就网开一面。

实际效果:

  • 保持代码库的整体质量(没有双重标准)
  • 减少人工审查的工作量(机器先过一遍,你只看关键部分)
  • 培养 AI 的代码习惯(多次审查后,AI 会学习你的代码风格)

为什么这 3 条建议管用?

Boris 的建议背后有一个清晰的逻辑:

  1. Plan 模式确保方向对
  2. 验证机制确保实现对
  3. 自动化审查确保质量对

这不是在"审查" AI,而是在和 AI 协作时建立质量保障体系

传统的代码审查是事后检查——代码写完了,人来看有没有问题。但 AI 生成代码的速度太快,事后审查根本来不及。

更好的方式是在生成过程中嵌入质量检查点:

  • 写之前先规划(Plan 模式)
  • 写的时候就验证(单元测试/可视化)
  • 写完后自动审查(code-review 工具)

这样你不是在追着 AI 擦屁股,而是让 AI 在可控的轨道上高速运行。

实际上手建议

如果你现在就想改进 AI 代码审查流程,可以这样开始:

今天就能做的:

  • 下次让 AI 写代码时,先问一句"能先给我说说实现方案吗?"
  • 如果项目有测试,明确要求 AI "确保所有测试通过"

本周可以做的:

  • 配置好开发环境的可视化验证工具(浏览器扩展/模拟器)
  • 尝试使用 /code-review 或类似的自动化审查工具

长期养成的习惯:

  • 把"先规划、再实现、后验证"变成和 AI 协作的标准流程
  • 对 AI 代码和人类代码一视同仁——质量标准不打折

最后说一句

AI 编程工具不是魔法棒,挥一挥代码就自己写好了。

它更像是一个速度极快但需要指导的初级程序员——你得告诉它方向、给它反馈、检查它的工作。

Boris 的 3 条建议,本质上就是在回答:如何和这个"超速初级程序员"高效协作。

毕竟,代码质量不是审查出来的,而是在协作过程中保障出来的。

评论

还没有评论。成为第一个评论的人!

相关工具

相关文章

发布者

AI Nexus Team

AI Nexus Team

@hunterzhang86

6 分钟阅读