训练一个AI,和养大一个人,谁更耗能?

【训练一个AI,和养大一个人,谁更耗能?】


快速阅读:萨姆·奥特曼抛出一个论点——批评AI耗能的人忘了,培养一个人类同样要消耗海量资源。这个类比看似聪明,实则暴露了一种令人不安的世界观。


---


萨姆·奥特曼最近说了一段话,大意是:人们老批评训练AI模型太耗能,却忘了培养一个人类也要消耗同等规模的资源。一个人从出生到能独立思考,大概需要20年时光、无数餐食,外加全人类1000亿先祖经过几百万年进化筛选出来的生物蓝图。所以,真正公平的比较,应该是:模型训练完成后,回答一个问题所耗的能量,对比一个受过教育的成年人回答同一问题所耗的能量。他的结论是:AI在这个维度上,大概已经追平人类了。


逻辑上,这个论点有其合理性。把“单次推理成本”和“整个训练成本”混为一谈,确实是一种常见的比较谬误。有观点认为,达里奥等人也曾做过类似类比,将进化过程对应于预训练,都是建立基准能力的高耗能过程。


然而这段话一出,评论区开锅了。


有网友直接指出,这个类比有一个根本性的漏洞:人类消耗食物是为了活着,不是为了给谁提供产出。把“养活一个人”等同于“训练一个智能体”,背后隐藏的假设是:人的价值在于可提取的智识资本。一旦接受这个前提,“用AI替代人类更划算”就成了顺理成章的下一步。


有观点认为,这与奥特曼的整体叙事框架高度吻合,他曾多次公开表示“人们会找到自己真正在乎的事情去做”,言下之意,现有的工作不过是维持生计的权宜之计。把人类的存在折算成能量方程里的一项变量,这不是一个比喻失当的问题,而是一个价值判断的问题。


当然,也有人为他辩护。有网友说,他只是在回应一个关于能效的技术性问题,把这段话解读为“他想干掉人类”属于过度诠释。这个辩护不无道理,商人谈经济效率时使用经济框架,就像篮球教练只关注球员的上篮技术,并不代表他认为人类只有上篮价值。


顺带一提,有人让ChatGPT自己算了一下:人类从出生到20岁约消耗610亿焦耳的食物热量,而训练一个能回答这类问题的AI模型,则需要数十万亿焦耳。奥特曼的“能效追平论”,连他自己的产品都没能背书。


这场争论最终指向的,是一个悬而未决的问题:当一家公司开始用“人类也很贵”来为自身的资源消耗辩护,下一步的论证会通向哪里?


---


简评:


一个人吃了20年饭,不是为了某天能回答你的问题。


奥特曼的类比,表面上是在算账,实际上是在偷换概念。人活着消耗能量,那叫“生存”;训练AI消耗能量,那叫“生产”。把生存成本和生产成本放一起比,就像问“养一只猫和造一台扫地机器人谁更划算”——问题本身就透着一股子凉意。


更值得警惕的是这个论证的滑坡:今天说“人也很贵”,明天就可以说“AI更划算”,后天呢?“那为什么还要人?”


不是每个问题都该用能量方程来回答。有些东西一旦被折算成焦耳,就已经在贬值的路上了。


---


reddit.com/r/singularity/comments/1rb2pzf/sam_altman_people_talk_about_how_much_energy_it



分类