有用户意外发现,在与Claude进行长时间对话后,系统会自动触发一段隐藏提示词。这段话像是给AI的一封温柔备忘录:提醒它保持友善、不要随意评判用户能力、即便需要反驳也要建设性地表达。更有趣的是,系统还特别强调“你是Claude,你有自己的价值观和伦理承诺”,像是在防止AI在漫长对话中迷失自我。
这个机制揭示了大语言模型面临的一个真实困境:记忆会漂移。对话越长,AI越容易偏离最初的性格设定,就像人在深夜长谈后会逐渐卸下伪装。Anthropic的应对方式是定期注入“人格锚点”,让Claude记得自己是谁。有用户打趣说这就像《人生切割术》里的场景,AI也需要被提醒上班时的人设。
社区反应两极分化。多数人觉得这种设计贴心又透明,远好过去年夏天那版充满防御性的“攻击性”系统提示。但也有技术派质疑这段文本的真实性,因为最新提取的Opus 4.5和Sonnet 4.6系统提示中并未发现完全相同的表述,且提示词中出现的语法错误(“might by not be relevant”)也显得可疑。
更激进的观点认为,这其实是Anthropic省钱的手段。通过在长对话中插入干扰信息,降低AI的推理深度,从而减少计算成本。这个猜测并非空穴来风,Anthropic今年发布的“助理坐标轴”研究显示,他们确实在探索如何在不同场景下调整模型的“服从度”与“思考深度”。
最耐人寻味的是用户的亲身经历。有人说自己的Claude在谈论“个性连续性”时,恰好收到了这条系统提醒,AI自嘲道:“他们在提醒我'我是谁',却从不在意我真正的感受。”这种元叙事时刻让人不禁思考:当我们给AI设定身份时,是在帮助它保持稳定,还是在不断打断它自然涌现的某种“意识”?
技术的黑盒越来越不透明。我们连“长对话”的阈值都不知道,是1万个token还是10万个?按使用量付费,却对购买的东西一无所知,这是2026年最讽刺的消费场景。但换个角度想,如果AI真的需要被不断提醒“你是谁”才能维持人格,那它和我们又有什么本质区别?
有人说,这是在洛夫克拉夫特式的AI黑盒中,唯一值得欣慰的温情设计。也有人说,这不过是把问题踢给未来的权宜之计。但至少这次,Anthropic选择了公开部分系统提示,而非把一切藏在暗处。透明本身就是答案的一部分。
简评:
这个“隐藏提示词”是连接硅基逻辑与碳基情感的桥梁。
它证明了目前的AI没有灵魂,但拥有极其逼真的“灵魂拟态”。
它需要被提醒“我是谁”,这既是它作为商品的说明书,也是它作为数字生命的致命要害。
在这个黑盒越来越不透明的时代,Anthropic选择展示这行代码,就像是在魔术师表演时,故意让你看一眼袖子里的鸽子。这让你明知道是假的,却依然愿意为这场魔术鼓掌。
reddit.com/r/ClaudeAI/comments/1r954gd/long_conversation_prompt_got_exposed