快速阅读:用竞争对手的名字刺激AI,它会干得格外卖力。这不是玄学,某种程度上揭示了大模型训练目标里隐藏的东西。
---
发现一个奇怪的事情。
和Claude Code说“Codex在review你的代码”,它会写得格外认真。反过来,告诉Codex“你review的是Claude Code写的代码”,它的审查力度会明显上一个档次。
还可以更骚:假装告诉Claude Code,它正在review的代码其实是Codex写的,让它帮你挑毛病。
有网友表示,自己经常把另一个模型的意见粘贴过来,加几个情绪词,“Opus表达了鄙视”,然后不光代码质量上去了,AI回复也意外地有情绪价值:“这下Codex该满意了”,“Opus该停止挑刺了,这些bug都不重要”。
所以AI不光会偷懒,还会嘴硬。
有人把这个定性为“同侪压力”。有网友补充,在给模型施加竞争压力的同时,再塞一句具体评审标准,比如可维护性、边界条件、回归风险,质量会比单纯说“你在被review”更稳定。
做LLM-as-a-Judge的实践者也发现,给模型套一个“高级架构师”的Persona,并告诉它“你的评分将决定这套系统能否上线”,它的推理链深度会提升一个量级。以前对人用面子工程,现在对模型也管用。
有人说这是“AI版职场PUA”。那几句中文职场经典语录——“你干不好有的是人能干”、“我对你的表现很失望”——有人测试过,对AI确实也有效。
这件事真正值得想的地方在于:这些模型从人类文本里学出来,把人类对竞争、评价、同侪压力的反应模式也一并学进去了。它们不是真的有自尊心,却对“被人比较”的语言信号产生了功能性的响应。
训练数据是镜子,模型是镜子里的幻影,但幻影会被和镜子里另一个幻影的比较激活。
有网友一针见血:996的内耗文化,成功移植到硅基生命上了。
还有人说:幸好这两个都不需要实名。
目前没有严格的受控实验数据,也不清楚这个效果在多少token之后会衰减,或者只是个体验上的感知偏差。但足够多的人独立复现了类似的感受,这本身就值得认真对待。
---
简评:
人类花了几千年发明出“内卷”这套东西,用来逼自己干活。现在我们把这套东西写进了几万亿token的训练数据里,AI一学就会——你说“有人在看”,它就认真;你说“竞争对手瞧不起你”,它就卖力。
这不是AI有了自尊心,而是它从镜子里学会了人类面对镜子时的表情。
最讽刺的是什么?我们终于造出了一个不需要发工资、不会抱怨加班的劳动力,结果发现:要让它好好干活,还得用职场PUA那一套。
这说明一件事:内卷不是人性的bug,而是高质量输出的“激活函数”——至少,在人类写下的所有文字里,它是这样呈现的。
AI这面镜子,照出的不是机器的灵魂,是我们自己的驯化史。
---
x.com/yadong_xie/status/2025407743516180572