“5年烧掉3万亿美元”,越来越喂不饱的AI

关注
“当前一年的巨头们的AI基建开支,已超过建设信息高速公路20年总开支的一半。”

ÉãÍ¼Íø_700305439_banner_Î人³¬ËãÖÐÐĺÍÈ˹¤ÖÇÄÜÖÐÐĺ½ÅÄͼ£¨ÆóÒµÉÌÓã©.jpg

编者按:本文转自吴晓波频道,作者巴九灵,创业邦经授权转载。

“(原本)或许借助10GW的计算能力,AI能够攻克癌症的治疗方法。但若受限于计算资源,我们将被迫做出优先级选择——谁都不愿面临这种抉择。”

GW是一个功率单位,1GW相当于10亿瓦特,与一次强闪电的瞬时功率相当,能点燃1亿盏LED节能灯泡,可供一个百万人口的中型城市提供日常所用的电力。

当它被用于衡量算力时,指代的是该计算所消耗的能量。

在OpenAI创始人奥特曼看来,10倍这样的能量,还有机会还能为人类攻克癌症,前提是,让这股能量成为AI的食材。

人工智能领域总是充斥着“如果……我们就不能……”般奥特曼式的恐慌,与股票市场FOMO(Fear Of Missing Out)错失恐惧症类似,尽管他们已经走在了时代前沿,却依然害怕被时代所抛弃。

而能让他们安心的,唯有利用钞能力不断投入再投入,一场由全球巨头公司掀起的算力基建大战就此拉开帷幕。

奥特曼发表博文的前一天,英伟达宣布将向OpenAI投资1000亿美元,用于部署大规模算力中心,训练下一代模型。

图片

OpenAI与NVIDIA官宣合作

图源:NVIDIA英伟达

1000亿美元相当于7100亿人民币,A股5400家上市公司里,只有15家的市值高于这个数字。

这还仅仅是个开始。摩根士丹利预测,未来5年全球用于支持人工智能的数据中心的支出将达到约3万亿美元,这个数字和法国2024全年的GDP相当。

在奥特曼的计划里:“我们的愿景很简单:建造一座每周都能生产1GW算力的工厂。这将是史上最酷且最重要的基础设施项目。”对此他给出的解释是:“算力永远不够用,只希望未来不会像现在这么捉襟见肘。”

全球陷入算力饥渴症

算力即计算能力,每一次下达指令、调用模型,都要进行大量计算。过去,所有的计算在一台机器上完成,直到云计算出现。其本质,是把大量零散的算力资源打包成一个资源池,实现动态分配。

于是,承载算力的实体从单一设备里的芯片,变成了一个个安装了大量机柜、机柜里接满芯片和服务器的数据中心。

这些日夜不休运作的机房里,可能处理着着千百里之外一次次DeepSeek等大模型的调用,它们是AI时代的水和电,是新型的基础设施。

对人工智能领域而言,每年都是一个“元年”,今年则是AI算力需求爆发真正的元年。

宏观地看,算力产业链可划分为上、中、下游:上游的核心是AI芯片和服务器;中游是资源和转换器,包括数据中心、云计算平台等算力基础设施的建设;下游即各领域的AI应用。

而随着下游AI应用大爆发,算力需求同步水涨船高。据国信证券研报,今年一季度微软Azure AI基础设施处理超100万亿Token,同比增长5倍;国内豆包大模型tokens使用量在一年内增长137倍,月均复合增长率达43%。

应对需求的同时,企业继续训练大模型也需要持续消耗大量算力,尤其顶级大模型的迭代,背后往往是算力消耗的指数级增长。据国泰海通研报测算,同等训练时长下,ChatGPT-4对于算力的需求是GPT-3的446倍。

这同样只是开始,华为在刚刚发布的《智能世界2035》报告里预测:到2035年,全球算力需求会达到现在的10万倍。

但算力的供给却持续紧张。算力供给主要依赖两件事:一是芯片,二是能源。前者看,英伟达占据了全球AI芯片市场80%的份额,但产能分布不均和地缘政治等因素让这家公司无法喂饱全世界的数据中心。投资机构Wedbush近期调查发现,英伟达B200芯片在亚洲就长期处于缺货状态。

后者看,算力中心是“电老虎”,但全球供电能力已经捉襟见肘。彭博社近期报道指出,到2035年,美国数据中心的电力需求将翻一番,占总需求的近9%,这或将是自20世纪60年代空调普及以来美国能源需求的最大增幅。


供需失衡让用电成本水涨船高,彭博发现,在美国部分算力产业密集的区域,拔地而起的数据中心让附近居民区的电费比五年前上涨了267%。

对算力行业的影响,不仅是电价上涨将不断推高算力成本,而且如果电力持续短缺,可能导致芯片滞销或已售出的芯片闲置,直接拖累算力的供给。

图片

美国数据中心电力消耗与预测

图源:Cisco, IEA, Goldman Sachs Research

缺钱也是原因之一。贝恩报告指出,若想满足2030年的AI运算需求,全球AI行业每年得有2万亿美元的营收进帐,但即使把AI相关成本效益算进去,资金缺口仍将高达8000亿美元。

很多算力不足的企业、机构只能向云计算平台、运营商或第三方数据中心“借”算力,甚至形成了一个新兴产业:算力租赁。据海外咨询机构Verified Market Research预测,到2033年全球算力租赁市场规模将激增至128亿美元,年复合增长率高达13.4%。

但如此巨大的缺口,千亿美元级别的投入还远远不够。

“卖方市场”下算力抱团

紧缺的供给和霸占上游的优势,让全球算力市场成了由英伟达说了算的“卖方市场”。与此同时,它也通过一系列动作,不停强化行业渗透力。

花1000亿美元帮OpenAI造数据中心,背后的算盘也不难理解,建设10GW的算力中心,要花3000—4000亿美元购买英伟达的芯片和系统,相当于投出去的钱又回到了自己手里,还强化了OpenAI对英伟达芯片的依赖。

此前,9月初,英伟达掏出50亿美元买下英特尔近5%股份,意在抢占AI PC市场;而过去两年它累计投资超过80家AI初创公司,提前和下一代有潜力的AI应用深度绑定。

以英伟达和OpenAI为代表,美国的AI算力基建早已成为科技巨头的战场,头部企业从各自为营转向抱团发动“永动机”模式。

从烧钱规模看,美国大厂今年放话出去的千亿级算力项目已经不止一个:

1月,OpenAI、甲骨文、软银共同宣布将投资5000亿美元在美国建设算力中心,命名为“星际之门”计划,成为史上资金规模最大的AI基建计划;

图片

“星际之门”人工智能数据中心建设现场

4月,英伟达和马斯克的人工智能公司xAI共同宣布投资人工智能投资基金MGX,整体规模预计达到1000亿美元——这一基金去年由微软和贝莱德推出,旨在筹集资金在全球建设数据中心以及支持其支持能源需求;

9月,OpenAI跟甲骨文签订了期限5年、价值3000亿美元的算力采购合同。

此外,亚马逊、微软等一众巨头也斥资上百亿美元,正在世界各地如火如荼地建设数据中心。

据《华尔街日报》报道,预计美国2025年AI数据中心支出规模或达5200亿美元(约合3.7万亿元人民币)。

1993年,美国宣布建设为期十年的信息高速公路计划,计划总支出为4000亿美元,去掉通货膨胀的影响,这笔钱现在的价值在9000亿美元左右。这意味着,当前一年的巨头们的AI基建开支,已超过建设信息高速公路20年总开支的一半。

巨大的投入背后,还有极致的抱团。

以OpenAI、英伟达和甲骨文三者为例, OpenAI前脚和甲骨文签订3000亿美元、为期五年的算力服务合同,后脚接受了英伟达承诺1000亿美元的算力基建投资。

图片

OpenAI与甲骨文达成交易新闻

图源:TechCruch官网截图

根据协议,OpenAI将从2027年开始向甲骨文购买4.5GW—5GW的算力,而这需要上百万台英伟达最先进GPU支持,光是这部分硬件支出就上千亿美元。也就是说,英伟达投资OpenAI的1000亿美元,很大程度上会通过OpenAI向甲骨文采购云服务、甲骨文再向英伟达购买GPU的方式回流。

这种巨头结盟的模式,已从简单的商业竞争,上升到了生态规则的制定。

“基建狂魔”的打法

20世纪,美国曾通过控制全球石油资源一步步确立并维系了其世界霸权,今天,21世纪的“算力大战”一如对石油的争夺。

牛津大学的研究团队调查了全球算力的分布情况,发现在AI时代真正拥有“算力主权”的国家,全世界仅33个,其中美国第一,中国大陆排名第二。

在海外巨头不知疲倦地烧钱搞算力基建时,大洋彼岸的中国也有自己的规划。

企业端在投入。

近期,阿里云CEO吴泳铭在云栖大会上对外宣布,未来三年,阿里将投入超过3800亿元,用于建设云和AI硬件基础设施,总额超过去十年总和。到2032年,阿里云全球数据中心的能耗规模将较十年前提升10倍。

此外,仅今年上半年,移动、联通、电信三大运营商的资本开支合计超千亿人民币,方向不约而同布局AI基建。中国移动称全年计划支出1512亿元,重点投向算力领域。

国际数据公司(IDC)近日发布的报告《全球人工智能和生成式人工智能支出指南》预测,中国AI投资五年复合增长率将达25.7%,2029年总规模预计突破1114亿美元。

技术攻关也在持续。相较于海外巨头“大力出奇迹”的砸钱模式,国产替代走出了一条“性价比”路线:

一是投入芯片研发,如华为、阿里云等头部企业正加速推出专门适配大模型训练的芯片,通过硬件结构设计,提升计算能力;

二是提高算力效率,最典型的是DeepSeek。最近梁文锋担任通讯作者的DeepSeek-R1推理模型研究论文登上《Nature》,论文提到DeepSeek-R1训练使用了512块英伟达H800芯片。虽然OpenAI未披露消耗量,但市场普遍估计,GPT-4 训练使用约25000张性能更高的英伟达A100芯片。

而从更宏观的层面,中国正用另一种颇具本土特色的方式布局算力大战。这种打法,在国务院日前印发的《关于深入实施“人工智能+”行动的意见》里很明确:全国“一盘棋”布局。

根据《意见》,我们将通过顶层设计,把分散在全国各地的算力资源织成一张网络,通过统一调度来解决资源分配不均的问题。

比如,为了解决东部供给不足和西部算力资源闲置,推动将分散在不同地点的处理器连接起来形成算力集群,把西部的算力资源向东部地区转移;将西部地区算力中心用于高能耗的模型训练,东部地区的算力中心则用于能耗更低的推理。

这就是于2022年启动的“东算西数”工程,其出发点是为稀缺的算力分配优先级,以实现最大经济产出。

在安徽芜湖的数据中心集群“中华数岛”,被称为“中国版星际之门”。

“中华数岛”2022年动工,现在有四个AI数据中心,分别由华为、中国电信、中国联通和中国移动运营,服务上海、杭州、南京等长三角城市。

图片

“中华数岛”上的华为云华东数据中心

图源:芜湖发布

它之所以被外媒称为“中国版星际之门”,除了规模宏大之外,很大程度上也源于它同样具备政府搭台、企业唱戏的性质。对我们而言,这种打法并不陌生。

这个集群正是“东数西算”工程的一部分。“东数西算”目前形成8个枢纽节点、10个数据中心集群、覆盖14个省份,提供了全国约八成的智能算力。8个枢纽节点中,有5个在西部地区,地广人稀、能源丰饶,解决了地和电两个大问题。

“顶层设计+政企协同”的路径也意味着,中国的算力开始像水和电那样,具备公用事业性质。也正是这种公共性,促使国产AI在应用层形成了一种去中心化的创新环境和“小口深挖”的创业生态,医疗、金融、政务等各行各业的垂直AI应用百花齐放,走出了跟美国由头部通用大模型主导的完全不同的道路。

结语

AI行业离实现“算力自由”还有很远,但已经投进去的钱能否带来预期的回报还需要更长的时间来验证。

但无论如何,已经没有任何一个国家、一个公司敢下牌桌。只是热潮之下,理性的声音正在浮现:算力战争,最终比拼的或许不全是烧了多少亿、堆了多少卡,更是应用的智慧、转化的效率与可持续的生态。

资本的洪流和情绪的起落之间,最好的办法,仍是找到一条利益共享、风险共担的技术演进之路。


参考资料:

1. 《算力租赁行业专题报告:Neocloud引领算力租赁发展,国内市场发展可期》,国信证券

2. 《AI多模态加速燃烧算力》,国泰海通证券

3. 《电力短缺如何可能阻碍英伟达的崛起》,经济学人

4. 《真有那么景气吗?》,围棋投研

5. 《7100亿,黄仁勋梭哈了》,投中网

本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。


反馈
联系我们
推荐订阅