如何审查 AI 生成的代码?Claude Code 作者的 3 个实战经验
半夜十二点,你盯着 AI 刚生成的 200 行代码,鼠标悬停在"提交"按钮上。
它看起来完美无缺——逻辑清晰、命名规范、甚至还有注释。但你心里有个声音在问:这代码真的靠谱吗?
这不是个例。随着 Claude Code、Cursor、GitHub Copilot 这些工具的普及,开发者们都在面对同一个难题:AI 写代码很快,但我怎么知道它写对了?
有人在 Twitter 上向 Claude Code 的作者 Boris 提出了这个问题。Boris 的回答很实在,没有废话,只有 3 条经过验证的实战经验。
1. 默认使用 Plan 模式
先别急着让 AI 动手,让它先说清楚打算怎么干。
这是 Boris 给出的第一条建议,也是最容易被忽视的一条。
很多人用 AI 编程工具的方式是这样的:
- "帮我实现一个登录功能"
- AI 开始疯狂输出代码
- 几分钟后你得到一堆文件
- 然后你开始头疼——这都改了啥?
Plan 模式的工作方式完全不同:
- AI 先告诉你它的实现方案——会改哪些文件、用什么技术栈、如何处理边界情况
- 你有机会在代码写出来之前纠正方向——"不对,我们用的是 PostgreSQL 不是 MySQL"
- 最后才是真正的代码实现——此时你已经对整个方案了然于胸
这就像装修房子——你不会让装修队直接开工,而是先看设计图。代码也一样。
实际效果:
- 避免大量返工(AI 一开始就走对方向)
- 提前发现架构问题(改 10 行设计比改 1000 行代码容易)
- 你对代码库保持掌控感(知道每个改动的来龙去脉)
2. 给 AI 一个验证机制
好的审查不是靠肉眼,而是靠可执行的验证。
Boris 的第二条建议更狠:让 AI 自己证明代码是对的。
具体怎么做?给它提供验证手段:
单元测试:
"实现这个功能,并且确保所有测试都通过"
AI 会边写代码边跑测试,发现问题立刻修正。这比你事后发现 bug 再回来改效率高十倍。
可视化验证:
- 前端功能?打开浏览器扩展或者开发者工具,让 AI 看到实际效果
- 移动端?接入 iOS/Android 模拟器,AI 能直接看到 UI 渲染结果
- API 接口?用 Postman 或 curl 验证响应数据
关键点在于:不要让 AI 只管输出代码,而要让它看到代码运行的结果。
这就像考试时不仅要交答卷,还要当场对答案。有反馈回路的 AI 比盲写代码的 AI 靠谱得多。
实际效果:
- AI 生成的代码质量大幅提升(有验证就有质量保证)
- 减少你手动测试的时间(AI 已经帮你跑过一遍了)
- 发现边界情况的能力更强(测试会覆盖你没想到的场景)
3. 用 /code-review 自动化审查
最后一条,也是最容易上手的一条:别自己逐行审查,让工具帮你干。
Claude Code 内置了 /code-review 命令,它会:
- 检查代码风格和最佳实践
- 发现潜在的性能问题
- 识别安全漏洞(SQL注入、XSS等)
- 指出可能的逻辑错误
但 Boris 强调了一个关键原则:对 AI 生成的代码,要和人写的代码保持同样的标准。
很多人会不自觉地降低要求:"AI 写成这样已经不错了。"错。
正确的做法:
- 该有的单元测试一个不能少
- 该加的错误处理必须加
- 性能优化不能含糊
- 安全问题零容忍
自动化审查工具就是帮你守住这条底线的——它不会因为代码是 AI 生成的就网开一面。
实际效果:
- 保持代码库的整体质量(没有双重标准)
- 减少人工审查的工作量(机器先过一遍,你只看关键部分)
- 培养 AI 的代码习惯(多次审查后,AI 会学习你的代码风格)
为什么这 3 条建议管用?
Boris 的建议背后有一个清晰的逻辑:
- Plan 模式确保方向对
- 验证机制确保实现对
- 自动化审查确保质量对
这不是在"审查" AI,而是在和 AI 协作时建立质量保障体系。
传统的代码审查是事后检查——代码写完了,人来看有没有问题。但 AI 生成代码的速度太快,事后审查根本来不及。
更好的方式是在生成过程中嵌入质量检查点:
- 写之前先规划(Plan 模式)
- 写的时候就验证(单元测试/可视化)
- 写完后自动审查(code-review 工具)
这样你不是在追着 AI 擦屁股,而是让 AI 在可控的轨道上高速运行。
实际上手建议
如果你现在就想改进 AI 代码审查流程,可以这样开始:
今天就能做的:
- 下次让 AI 写代码时,先问一句"能先给我说说实现方案吗?"
- 如果项目有测试,明确要求 AI "确保所有测试通过"
本周可以做的:
- 配置好开发环境的可视化验证工具(浏览器扩展/模拟器)
- 尝试使用
/code-review或类似的自动化审查工具
长期养成的习惯:
- 把"先规划、再实现、后验证"变成和 AI 协作的标准流程
- 对 AI 代码和人类代码一视同仁——质量标准不打折
最后说一句
AI 编程工具不是魔法棒,挥一挥代码就自己写好了。
它更像是一个速度极快但需要指导的初级程序员——你得告诉它方向、给它反馈、检查它的工作。
Boris 的 3 条建议,本质上就是在回答:如何和这个"超速初级程序员"高效协作。
毕竟,代码质量不是审查出来的,而是在协作过程中保障出来的。
评论
还没有评论。成为第一个评论的人!
相关工具
相关文章
Claudesidian:让 Obsidian 变成 AI 驱动的第二大脑
通过 Claudesidian 这个开源项目,将 Obsidian 笔记系统与 Claude Code 完美结合。内置 PARA 方法、自定义命令、自动化工作流,从想法到实现的完整解决方案。
Skills + Hooks + Plugins:Anthropic 如何重新定义 AI 编程工具的扩展性
深入解析 Claude Code 的 Skills、Hooks 和 Plugins 三位一体架构,探讨为什么这种设计比 GitHub Copilot 和 Cursor 更先进,以及它如何通过开放标准重新定义 AI 编程工具的扩展性。
Cursor vs GitHub Copilot: 2026 完整对比
深入对比 Cursor 和 GitHub Copilot。通过详细的功能分析、定价和实际测试,发现哪个 AI 编程助手最适合你的工作流程。