快速阅读: 上海临港全球首个海风直连海底数据中心正式投运,用15℃海水替代空调制冷,绿电供给率超95%,PUE低至1.15。这不只是一个工程项目,是AI时代算力基础设施的一次范式迁移。
---
传统数据中心有一个藏不住的秘密:大约40%的电,根本没有用来计算,只是用来给机器降温。
一个中等规模的陆上数据中心,每年要喝掉10万吨淡水。相当于500个家庭一整年的用量,全都变成热气散掉了。你每次刷视频、跑AI推理,背后都有一台巨大的冷却机器在同步运转,它消耗的资源甚至比计算本身还多。
这个问题没有软件解,只有物理解。
上海临港做的事情,逻辑上其实很简单:把数据仓沉到海平面以下10到15米,海水年均温度15℃,天然恒温,铜管循环把热量导走,整个过程无需额外动力,也不消耗一滴淡水。制冷这个成本项,直接从账单上消失了。整体能效PUE做到1.15,而陆地数据中心的行业平均水平在1.4到1.6之间。省下来的,是真实的电。
有意思的地方在于能源侧的设计。数据舱部署在海上风电场内部,风机发的电通过专属海缆直连,传输损耗从陆地线路的5%到10%压缩到2%以下,绿电供给率超过95%。这不是采购绿色电力指标,是物理上的就近消纳。算力和能源放在同一片海域,中间的损耗几乎不存在。
这个结构让人想到CPU的存储层级设计。内存离处理器越近,延迟越低,带宽越高。把计算放到能源旁边,本质上是同一个思路。距离是损耗,消灭距离就是消灭损耗。
有网友提到海底环境的另一个优势:密封舱内缺氧,金属腐蚀速度大幅降低,设备故障率只有陆地的八分之一左右。这是个意外收获,密封本来是为了防水,结果顺手解决了氧化问题。微软早年做过类似实验,Natick项目在苏格兰海域运行了两年,数据证明海底服务器的故障率确实更低。项目最终没有规模化,原因是维护成本和商业模式没跑通。
中国这次的不同,在于同时解决了冷却、能源、工程三个问题,并且做到了商用规模。总重1950吨的设备,误差20厘米安置在海床上,这个精度要求本身就是一道独立的工程题。
有观点认为,海底数据中心还有一个不常被提及的特性:物理安全。陆地数据中心的位置是公开的,基础设施暴露在地面。海底的密封舱不一样,它在物理上很难被直接触及。这个角度引起了一些讨论,没有定论,值得观察。
未来的分工可能是:海底舱跑AI训练、大模型推理这类高并发、高能耗的批量任务;陆地数据中心处理低延迟、需要人工介入的实时业务,比如客服系统、实时视频处理。两套系统各司其职,按计算特征分层。
海底数据中心现在还有几个没解决的问题:长期海水腐蚀的边界在哪里,设备出故障时的维护窗口怎么定,大规模扩张时海床空间怎么规划。这些不是工程细节,是商业模式能不能跑通的前提。
算力的尽头是电力,这句话大家都在说。电力的尽头是什么,还没有人给出完整的答案。
#中国把数据中心搬进大海#