美国与中国AI竞争的系统性困局:已经与芯片无关
2026年4月24日,一个可能被未来历史学家记住的日子。这一天,中国AI公司DeepSeek发布了V4版本。技术报告里有一段话,比任何模型跑分都更值得玩味:V4的细粒度专家并行方案,在英伟达(NVIDIA) GPU和华为升腾(Huawei Ascend)NPU两个平台上都验证通过了。
也就是说——这个模型既能在美国芯片上跑,也能在中国国产芯片上跑。推理侧已经实打实地跑在了华为升腾上,训练侧虽然目前还得靠英伟达,但用升腾卡训练这条路,架构上已经完全铺平了。
几天前,英伟达CEO黄仁勋在一个播客里说了一句让矽谷很多人后背发凉的话:“如果DeepSeek先在华为平台上发布,那对美国来说将是灾难性的。”
黄仁勋很少这么直白。他接着说,美国的出口管制“极度愚蠢”,不是在遏制中国,而是在人为制造两个割裂的AI世界——一个跑在美国技术栈上的封闭生态,一个跑在外国技术栈上的开源生态。最终受损的,恰恰是美国自己。
这话从一个美国芯片巨头掌门人嘴里说出来,分量不轻。而就在V4发布前一天,美光(Micron)正在华盛顿积极游说国会通过“MATCH法案”,要把管制范围扩大到设备维护和售后服务,甚至计划在中国境内全面收紧浸没式DUV光刻机的供应。
禁了芯片禁设备,禁了设备禁售后。美国对华AI封锁正在变成一场无休止的加码游戏。但问题在于,这条路真的走得通吗?还是说,美国从一开始就找错了战场?
芯片之外,有一道美国永远跨不过的成本鸿沟
先做一个思想实验。
假设明天美国政府突然宣布:取消所有对华芯片出口限制。英伟达可以敞开了卖,最先进的B200随便往中国运。会发生什么?
华尔街可能会欢呼一波。但用不了太久,一个尴尬的事实就会浮出水面——买得起芯片是一回事,跑得起算力是另一回事。
AI时代,算力的背后就是电力。一个数据中心的运营成本中,电费能占到40%到55%。训练大模型的那个巨型集群,比例只会更高。谁的电价低,谁的算力成本就低;谁的算力成本低,谁的大模型就有竞争力。这是最朴素的经济学。
而在这个指标上,美国和中国的差距,不是几个百分点,而是一个数量级的代差。
中国部分地区对数据中心有专门的电价补贴,工业电价可以低到每千瓦时不到四毛钱人民币,折合美分不到六分钱。美国呢?号称全美规模最大的PJM电网——覆盖从华盛顿到芝加哥13个州,承载美国近40%的数据中心用电量——现货电价已经飙到每兆瓦时1000美元以上,也就是一度电一美元。差距接近二十倍。
这不是暂时的波动。这是结构性的。
PJM电网预计未来十年会出现60吉瓦的供电缺口。什么概念?60吉瓦相当于60个大型发电厂的全部输出。而数据中心并网的等待时间,长的要排好几年。有的电网运营商干脆直接告诉开发商:想建数据中心?自带发电设施来,我这没电了。
维珍尼亚州北部,全球数据中心密度最高的地方,备用电力短缺事件从2023年全年的3次飙到2025年的19次,2026年头两个月就已经6次了。电价一年涨了61%,而且从冬季集中缺电蔓延到了全年常态化。
你以为这只是缺电?更讽刺的还在后头。
美国想建数据中心,但连最基础的电力设备都造不出来。大功率变压器的交货周期,2020年之前是24到30个月,现在拉长到了最长5年。而AI企业的部署周期普遍在18个月以内——光等一个变压器就要等5年,黄花菜都凉了。
为什么造不出来?美国本土产能萎缩了几十年,矽钢等关键材料严重依赖进口。而进口从哪里来?很大程度上来自——中国。是的,美国一边在芯片上卡中国的脖子,一边建数据中心的关键电力部件却离不开中国的供应链。电池、开关设备、变压器组件,中国在进口量中占比长期超过40%。
这就是美国算力建设的真实处境:不缺钱,但缺电、缺设备、缺工人、缺基建速度。而这一切,跟芯片禁不禁售没有一毛钱关系。
两个世界,两种死法
现在我们回到那个问题:面对中国AI的崛起,美国到底有没有更好的选择?
有人说,禁售是错的,那改成低价倾销行不行?用英伟达的价格优势和规模效应,压住华为升腾等国产芯片的成长空间,让中国本土芯片永远长不大。这种打法听起来是不是更“聪明”?
过去或许有成功案例。但放在今天的中美语境下,这条路同样走不通。原因很简单——电力成本鸿沟的存在,让“低价倾销”这个剧本从一开始就写不下去。
可以设想,如果没有出口管制,美国的科技巨头们会怎么做?他们会把最先进的芯片运到哪里去训练模型?是美国本土,还是中国?
理性选择只有一个:去中国。
因为电价便宜到只有美国的三分之一甚至更低,因为基建速度快到颠覆认知,因为变压器不用等五年,因为供应链就在身边。带着最先进的芯片和技术,到中国的能源洼地里建算力中心,才是最符合商业理性的选择。结果就是,美国用自己的先进芯片,养肥了中国的AI产业。
那禁售呢?禁售的结果我们也看到了——中国企业用实力证明,他们能在制裁下打造出一套不依赖美国的独立生态。DeepSeek V4在升腾上跑通了,细粒度专家并行方案在两个平台上都验证了。黄仁勋担心的那个“先在华为平台上发布”的场景,已经被踩出了第一个脚印。
不禁售,资本流向中国,美国芯片养肥中国AI;禁售,倒逼中国自主生态加速成熟,最终跟美国分庭抗礼。
怎么选都是死路。无非是长痛和短痛的区别。
而在这两种死法之外,还有第三重困境正在加速到来。美国的电力基础设施危机,正在让“算力”这个词变得越来越抽象——你有再多的芯片,没有电,没有变压器,没有并网许可,芯片就是一堆不能通电的矽片。
微软的遭遇是最好的注脚。为了让数据中心有电可用,微软签了重启宾夕法尼亚州三哩岛核电站1号机组的协议——就是1979年出过核事故的那个三里岛。那个机组2019年因经济原因关停,硬是被微软买断了20年的全部电力输出,美国能源部还给了10亿美元的联邦贷款支持。但即便如此,因为输电工程滞后,全面并网可能要推迟到2031年,比原计划晚了四年。
Meta的做法更直接——拍板在路易斯安那州给它最大的数据中心新建三座天然气发电厂,满负荷发电2.25吉瓦。随着算力持续扩建,电力需求最终要上到5吉瓦。至于环保承诺?暂时顾不上了。
OpenAI在得克萨斯州规划的多个大型数据中心园区,卫星图像追踪显示施工进度明显滞后。其中一个1.4吉瓦的项目,六处规划设施里目前只有一处出现了施工迹象,首批交付可能推迟到2027年底。
日本呢?有280亿美元的AI数据中心投资热潮,但电网扩容跟不上,并网可能要排十年队。西班牙阿拉贡那个900亿美元的AI数据中心项目,规模确实大,但选址和当地社区的矛盾让推进举步维艰。
所以你会发现,这不是美国独有的问题,而是全世界都面临的困境——但中国是唯一的例外。
“东数西算”把算力中心布局在能源丰富的西部省份——甘肃、贵州、内蒙古,电从源头直供,特高压输电技术成熟,变压器产能充足,工业电价补贴后低到令人咋舌。这不仅是成本优势,更是速度优势。当美国的AI工程师还在等变压器交货的时候,中国的数据中心已经上线运行了。
黄仁勋说得对,美国正在制造两个割裂的AI世界。但真正值得玩味的是——哪个世界会更快、更便宜、更开放?如果封闭的美国技术栈意味着高电价、长等待、旧电网,而开源的中国技术栈意味着低成本、快部署、全产业链,全球的开发者和资本会流向哪里?
答案不难猜。
美光们还在华盛顿游说更严厉的法案,老黄却已经在播客里说出了那个所有矽谷高管都不敢明说的真相:这场游戏的玩法已经变了。不是谁的芯片算力更强,而是谁能让算力真正跑起来、跑得便宜、跑得久。在这个新战场上,美国最引以为傲的武器——芯片霸权——正在失去它的杀伤力,取而代之的,是一道美国自己永远填不平的鸿沟。
那道鸿沟的名字,叫电力。