地球下一个版本的物种——硅基海洋里随机涌现出来的智能体。
是的,人工智能是随机涌现出来的,就像生物进化一样,通过大规模的冗余、试错、并行突变而来的。
案例via跑酱er:“人类发明计算机,最开始是为了什么?是为了确定性。
你给计算机输入1,再输入1,告诉它做一个加法,它必须输出2。如果它输出2.000001,这就是个废品。CPU就是为了这种极致的确定性而生的。
但是,时代变了。
2012年之后,深度学习的崛起撕开了一个口子。到现在2026年,生成式AI已经接管了一切。
现在的计算任务变了。我们不再需要计算机去执行复杂的逻辑判断,我们需要的是计算机去从海量的数据中把规律暴力提取出来。
你训练一个GPT-5,或者现在的Gemini 3 Pro,本质上是在做什么?
你不是在写代码。你是在做矩阵乘法。
你是在对数以万亿计的参数进行并行更新。这中间没有复杂的逻辑跳转,没有那么多的if-else。就是纯粹的、暴力的、大规模的数学运算。加法,乘法,加法,乘法。
这时候,CPU那个引以为傲的复杂控制单元,就成了累赘。它就像是一个拿着博士学位的数学教授,你让他去搬砖。他也能搬,但他要先思考这块砖的受力分析,要考虑搬砖的姿势是否优雅,还得预测下一块砖会不会掉下来。
效率太低了。
而GPU是什么?GPU在设计之初,是为了处理图形渲染的。图形渲染说白了,就是屏幕上几百万个像素点,每个像素点都要根据光照模型计算自己的颜色。这几百万个计算任务是互不干扰的,可以同时进行。
所以GPU的设计哲学是:别搞那么多复杂的控制逻辑,给我堆运算单元。
把那个博士教授辞了,雇佣一万个只有初中数学水平但身体强壮的搬运工。
这就是GPU的本质:大规模并行计算架构。
当AI时代到来,人们惊讶地发现,原来神经网络的训练和推理,跟图形渲染简直是异曲同工。它们都不需要复杂的逻辑控制,它们需要的都是海量的、并行的、简单的矩阵运算。
于是,权杖交接了。
但这只是表象。
为什么这种变化会引发资本和国运的疯狂下注?
因为算力的边际效应变了。
在CPU主导的时代,你把CPU性能提升一倍,你的软件运行速度可能只快了20%。因为软件受到各种IO限制、内存延迟限制、甚至程序员代码水平的限制。那个时代的安迪-比尔定律——硬件提升的性能都被软件消耗掉了——其实是一种悲哀。我们在不断地制造电子垃圾,为了跑更臃肿的操作系统。
但在GPU主导的AI时代,存在一个恐怖的Scaling Law(缩放定律)。
你堆十倍的GPU算力,模型的智能程度就真的能出现涌现。这种投入产出比是线性的,甚至是指数级的。
这就太可怕了。
这意味着,算力不再仅仅是计算工具,算力直接转化为了智能。
以前我们买服务器,是为了运行ERP系统,为了做Web服务。现在巨头们疯狂囤积GPU,是在提炼智能。这就像是工业革命时期,大家从烧木头变成了烧煤,效率的提升带来了质的飞跃。
现在的数据中心,根本不应该叫数据中心,应该叫智能提炼厂。
在这个工厂里,CPU就是个看大门的。它负责启动系统,负责网络包的转发,负责硬盘的读写调度。真正干活的,真正产生价值的,是那成千上万张绿色的GPU板卡。
资本是这个世界上最聪明的嗅探犬。
看看现在的英伟达。它不是一家硬件公司。如果你还把它当成卖显卡的,那你完全没看懂。
英伟达在过去二十年做了一件最伟大的事情,不是发明了GPU,而是发明了CUDA。
它构建了一个软硬件一体的生态系统。它把那种难以调用的并行计算能力,封装成了普通程序员也能使用的接口。
现在所有的AI框架,PyTorch也好,TensorFlow也好,底层的算子优化都是基于CUDA的。这就形成了一个巨大的正反馈黑洞。全世界最聪明的算法工程师都在给英伟达打工,都在帮它优化生态。
这时候你再看CPU。Intel和AMD还在纠结什么大小核设计,还在纠结指令集兼容性。这些东西在AI浪潮面前,显得那么苍白无力。
甚至可以说,通用CPU正在走向消亡。
未来的计算架构,很可能是一个极简的控制核心(CPU),挂载着巨大的专用加速器(GPU/TPU/LPU)。CPU的地位会被进一步边缘化,它将退化成一个单纯的I/O控制器。
这就解释了为什么英特尔现在的日子这么难过。这不仅仅是制程落后的问题,是它的核心产品被时代抛弃了。它引以为傲的复杂指令集,在AI的大规模矩阵运算面前,毫无用武之地。
再往深了说,这涉及到了人类认知的底层逻辑转变。
我们在过去几百年,特别是科学革命以来,一直信奉的是还原论和确定性。我们认为只要公式写得够完美,世界就可以被计算。CPU就是这种思想的物理结晶。严谨,有序,分毫不差。
但现在的AI技术,尤其是大语言模型,告诉我们要拥抱概率和模糊。
GPT回答你的问题,不是因为它查到了标准答案,而是因为它计算出下一个字出现概率最高的是什么。这是一种模糊的正确,一种统计学的胜利。
为了实现这种统计学的胜利,我们需要的是暴力美学。需要的是在极短时间内完成万亿次的浮点运算。
这时候,精致的CPU不够用了。我们需要的是GPU这种大力出奇迹的怪物。
这甚至影响到了地缘政治。
为什么现在国家之间在限制高端GPU的出口?从来没听说过限制哪款消费级CPU出口能卡住谁的脖子。
因为高端GPU现在直接等同于国家战略力量。
你拥有多少块显卡,决定了你能不能训练出下一代最强的大模型。决定了你在生物制药、材料科学、军事推演、自动驾驶这些领域的上限。
这哪里是科技热点?这分明是军备竞赛。
在这个维度上,CPU那点性能提升,就像是给坦克换了个更舒适的真皮座椅,而GPU的提升是把坦克的主炮口径扩大了一倍。你说谁重要?
现在的科技圈有一种很奇怪的氛围。一方面大家对AI充满了焦虑,另一方面又对硬件的进步视而不见。
很多人还在用装机猿的思维去理解现在的算力市场。还在比主频,比核心数。
朋友们,醒醒吧。现在衡量算力的单位已经是FLOPS(每秒浮点运算次数)了,而且是特指BF16甚至FP8精度的运算能力。
在这个评价体系下,CPU弱得像个笑话。
一个顶级的服务器CPU,算力可能只有几百TFLOPS。而一张顶级的AI GPU,算力是它的几十倍甚至上百倍。而且GPU还在以每年数倍的速度进化。
这背后的逻辑是,摩尔定律在CPU上已经失效了。因为单核性能的挖掘已经到了物理极限,散热和功耗锁死了CPU的上限。
但在GPU上,黄仁勋定律正在接棒。通过架构创新、通过封装技术、通过降低精度换取速度,GPU的实际AI性能还在飞速增长。
这种增长速度太快了,快到软件生态都跟不上。
这就是为什么现在热点全是GPU。因为这是目前人类科技树上,生长最疯狂、果实最丰硕的那根枝条。
所有的资源,资金、人才、电力、关注度,都在向这根枝条汇聚。
这也带来了一个极其残酷的现实:算力阶级固化。
以前,你买得起最好的CPU,我也买得起。i9和i5的区别,无非是你渲染视频快几分钟。
现在,顶级的GPU集群,动辄几亿几十亿美元。这不再是个人或者小公司能玩得起的游戏了。算力变成了像核电站一样的基础设施,只有巨头和国家力量才能掌握。
普通人能接触到的,只是云端传输过来的Token。
所以,为什么CPU不是热点了?
因为CPU代表的那个“个人计算时代”已经结束了。
在个人计算时代,PC是中心。CPU是PC的大脑。你拥有了PC,你就拥有了算力。
现在是“云端智能时代”。中心是那个拥有十万张GPU的超级集群。你的手机,你的电脑,只不过是一个显示终端。真正的计算,真正的智慧,都发生在那片GPU组成的硅基海洋里。
CPU依然存在,就像马车依然存在一样。但在内燃机发明之后,马车就不再是交通工具的主流热点了。它变成了某种怀旧的、基础的、或者特定场景下的工具。
人类处理信息的方式变了。
从逻辑处理转向了数据吞吐。
从规则驱动转向了数据驱动。
从CPU的串行转向了GPU的并行。
这种转变是不可逆的。
哪怕未来GPU这个名字消失了,被什么NPU、LPU取代了,其核心的“大规模并行计算”的魂依然会存在。而那个依靠高主频、复杂流水线来处理串行逻辑的CPU旧时代,是永远回不来了。
这也是为什么我在各种场合反复强调,不要去做那些会被AI轻易替代的工作。因为AI背后的GPU大军,正在以你无法想象的速度进化。
当你还在为CPU多挤了一管牙膏而欢呼时,数据中心里,新的硅基物种正在通过数万张GPU的连接,学习如何理解物理世界,如何生成视频,甚至如何编写比人类更优雅的代码。
这才是赤裸裸的现实。
这才是为什么所有人的目光都死死盯着GPU的原因。
因为那里,正在孕育着我们这个物种的下一个版本。
我们再往深处挖一挖,把这个残酷的现实剖开给你看。
现在的互联网大厂,无论是国内的还是硅谷的,招聘HC最紧缺的是什么?是懂CUDA优化的人,是懂分布式训练的人,是懂模型量化的人。
那些曾经拿着高薪,精通Linux内核调度,精通x86汇编优化的老兵,如果不转型,正在面临前所未有的职业危机。
这就是技术热点转移对个体最真实的冲击。
技术热点从来不是无缘无故产生的,它是产业价值链重构的信号。
在PC互联网时代,价值链的顶端是操作系统和CPU,是Wintel联盟。他们制定规则,其他人遵守。
在移动互联网时代,价值链的顶端是SoC和移动OS,是ARM和iOS/Android。
而在现在的AI时代,价值链的顶端就是模型和算力,是NVIDIA和OpenAI们。
CPU在这个新链条里,价值被极度稀释了。它变成了一个Commodity,一种大路货。
你想想看,现在买服务器,谁还关心里面插的是Intel的至强还是AMD的霄龙?大家只关心能插几张卡,互联带宽是多少,散热能不能压得住。CPU只要不拖后腿就行,甚至很多场景下,ARM架构的低功耗CPU反而更受欢迎,因为它省电,能把宝贵的电力配额留给GPU。
这就是“通货紧缩”和“通货膨胀”在硬件领域的完美体现。
通用计算能力(CPU)在通货紧缩,变得越来越不值钱。
智能计算能力(GPU)在通货膨胀,价格被炒到了天上。
这种局面会持续多久?
只要大模型的Scaling Law还没失效,只要我们在通往AGI的路上还没遇到物理墙,这种对GPU的狂热崇拜就不会停止。
甚至,我们正在目睹一种新型的“能源危机”。
不仅仅是电力,算力本身就是能源。
未来,衡量一个国家的实力,可能不是看它的钢铁产量,不是看它的石油储备,而是看它拥有多少EFLOPS的智能算力。
而在那张决定国家命运的资产负债表上,CPU甚至都不配单独列一项,它会被归类到“其他辅助设备”里去。
没错,我不否认CPU的功能性价值。就像我不否认现在清洁工依然很重要一样。但你不会去炒作清洁工的概念,你不会把清洁工当成科技热点。
热点,代表的是增量。
热点,代表的是可能性。
CPU已经没有故事可讲了。它的故事在20年前就讲完了。不管它怎么改良,它都是在旧的框架里打转。
而GPU的故事,才刚刚开始。我们现在看到的ChatGPT、Sora、Claude,可能只是GPU算力爆发前夜的一点火星。
真正的燎原之火,是当物理世界被数字化,当机器人拥有了大脑,当科学发现被AI加速。所有这一切的基石,都是并行计算。
写到这里,我想起前段时间和一个做芯片架构的朋友聊天。他感叹说,这辈子最后悔的事情,就是当年读书的时候,觉得图形学是做游戏的,是不务正业,死磕了十年的通用处理器架构。结果现在,他在给当年那些“做游戏”的人打下手。
这不仅仅是个人的悲剧,这是整个计算机科学界的一次集体误判。
我们太迷信逻辑了,太迷信控制了。
我们以为智能是设计出来的,是像钟表一样精密咬合出来的。
结果现实狠狠给了我们一耳光:智能是涌现出来的,是像生物进化一样,通过大规模的冗余、试错、并行突变而来的。
GPU这种架构,恰恰符合了生物进化的特征:单元简单,数量巨大,并行处理,容错率高。
这才是道。
这才是符合天道的计算架构。
CPU那种精细管理的架构,注