一位工程师分享了他9个月使用Claude Code、Cursor、Codex的心得,核心结论是:小的workflow改动比选择更强的模型效果更显著。
1. 我们都在做的错事
过去9个月,AI编码工具领域的讨论基本绕不开这个问题:Opus还是Sonnet?Claude Code还是Cursor?
工程师们花大量时间在论坛里对标参数、测试性能、研究基准。社区充斥着“升到Opus能提升多少效率”的帖子。这位工程师坦言,他也曾陷入这个陷阱——觉得只要选到最强模型,代码质量就能自动飙升。
但9个月后,他发现:模型的选择,远不如你怎么用模型来得重要。
2. 效果不错的5个习惯
① Prompt结构的优化
从模糊的帮我写代码,升级到「先分析需求 → 再分解任务 → 最后生成实现」
这个改动基本不增加成本,但让模型的理解精度显著提升
② 任务拆分策略
不是一次甩给AI一个大需求,而是分成3-5个原子任务
每个任务在完成后让AI自验证
这样能显著降低跑偏的概率
③ Context Window的高效利用
不是无脑堆代码到context里,而是精心选择关键文件和依赖
用CLAUDE.md或类似机制维护任务知识库
让模型不会在冗余信息里迷茫
④ 错误处理和反馈循环
AI给出的第一版本往往不完美
关键是怎么告诉AI问题在哪
一个好的修正反馈往往比重新开始快10倍
⑤ 工具链的协同
不是只用一个AI工具,而是根据任务阶段选择合适的工具
比如代码review用Cursor快速补全,架构设计用Claude Code的agentic模式
混合使用反而能发挥各自优势
3. 本质上,这反映了什么?
当前阶段,AI编码工具的瓶颈已经不在模型本身,而在用户的协作方式。
换个角度说:
2024年,我们在争论模型哪个更强,这很合理(模型本身差异大)
2025年,大多数开发者还在用问答的方式用AI(把AI当ChatBot)
2026年现在,赢家已经不是选最强模型的人,而是把AI当队友来协作的人
4. 给工程师的3个建议
① 停止"模型焦虑"
Opus和Sonnet的区别,在大多数场景已经不是主要瓶颈。你的prompt写法、任务拆分、反馈策略才是。花在对标参数上的时间,用来优化workflow能回本100倍。
② 重新设计你的AI协作流
不是「我有个需求,AI帮我实现」,而是「这个需求分成哪5步,每一步我怎么指导AI」。这听起来繁琐,但实际会减少往返次数。(注意:这个不一定对,有时候一股脑让AI来实现,比自己给AI分步来得更强大)
③ 把AI当队友,不当工具
工具你只管用;队友你要指导。一个好的指导(清晰的需求、及时的反馈、明确的目标),能让AI的产出质量翻倍。
##