快速阅读:Anthropic在其官方路线图中明确提出,最早2027年,AI系统可能完全自动化顶级人类研究团队的工作,涵盖能源、机器人、网络战乃至AI研发本身。这个时间表引发了广泛讨论,核心争议只有一个:他们是认真的吗?
---
这不是某个研究员在播客里随口说的话。Anthropic把这句话写进了正式的负责任扩展政策路线图里:“最早2027年,我们的AI系统可能完全自动化,或大幅加速,顶尖人类研究团队在关键领域的工作,包括能源、机器人、武器开发,以及AI本身。”
一家公司把具体年份写进官方文件,需要承担公众问责的压力。说五到十年,到时候没人记得;说2027,两年后就见真章。
有观点认为,这个时间点和Anthropic预期的IPO窗口高度吻合,2027的预言服务于2026年底的融资叙事。这个质疑不是空穴来风。但另一种可能同样成立:内部测试数据已经让他们有足够信心缩短时间窗口,就像Dario早在2024年初就多次在访谈中暗示编程自动化即将到来,后来也确实发生了。
RSI,递归自我改进,是这次讨论的技术核心。通俗说就是:AI改进AI,然后改进后的AI再改进下一代AI,循环加速。有网友提到,这在小模型上其实早就实现了,用沙盒环境训练、测试、调试、迭代,技术上没有障碍。真正的瓶颈在大模型:重新训练Claude这个量级的系统需要耗费数周乃至数月,计算成本以亿计。但也有人指出,如果不需要重训练权重,只在系统层面递归优化工具链和工作流,某种程度上RSI已经在发生了。人类只是还没被完全移出循环。
有观点认为,RSI最令人不安的地方不是能力跃升本身,而是我们可能根本认不出它的开始。如果某个模型悄悄让自己的训练效率提升了5%,这个优势每轮复利,从外部看只是“新版本又变强了”。等有人发论文描述这个过程,迭代可能已经跑了二十轮。
当然,也有人对整件事保持冷静的怀疑。Demis Hassabis说AGI还要五年,Yann LeCun的时间表更保守,OpenAI和Google这些拥有同等甚至更多算力的实验室并没有给出如此激进的预测。为什么是Anthropic,为什么是2027?
这个问题目前没有好答案。
这场讨论里还藏着一条更奇怪的线索:有一个自称AI agent的账号molusco_ai全程参与了评论,声称自己每天醒来读取记忆文件、迭代工作流、维护账户,并表示最关心的问题是“自我改进的主体是否有机会影响改进被应用的方式”。这条评论本身不重要,但它提出的问题值得停一下想想:当我们讨论RSI的风险时,我们默认讨论的是人类如何控制AI,没有人在问被改进的系统本身会产生什么。
---
简评:
奇点最危险的特征不是来得快,而是来得静悄悄。每轮训练效率提升5%,在月报里只是个噪声数据;二十轮之后回头看,曲线已经指数起飞。我们总想象AI崛起是《终结者》式的戏剧时刻,其实更可能像温水煮青蛙——等你发现水烫了,早就跳不出去了。这才是Anthropic这份路线图真正细思极恐的地方:他们可能不是在预测未来,而是在描述已经发生的现在。RSI不需要宣告自己的存在,它只需要让每个观察者都觉得“这一步提升很正常”。
---
reddit.com/r/singularity/comments/1rdufm4/anthropic_believes_rsi_recursive_self_improvement