最近,OpenAI向美国白宫科学与技术政策办公室(OSTP)提交了一份公开文件,标题很“AI”,叫《Seizing the AI Opportunity》(把握AI机遇),原以为这份文件是聚焦人工智能的报告,但内容却出乎很多人意料。
整篇文章最核心的不是算法,不是模型,而是电力。文件里,OpenAI 首次正式对外发出警告:“美国需要每年新增至少100GW电力装机,否则将出现‘电子差距’(Electron Gap)。”
根据其内部分析,美国电网的增长速度,已经落后于AI基础设施的扩张。2024年,中国新增电力装机容量429GW,而美国仅51GW。这意味着,未来在算力基础设施建设上,美国或将面临一个根本性瓶颈——电不够用。
算力狂飙,能源成“隐形瓶颈”
过去几年,美国AI产业的重心都放在“算力”上——GPU、数据中心、云平台。但OpenAI的这封报告,把目光投向了更底层的能源供给。
自2024年以来,随着ChatGPT的全球用户数暴增,微软、谷歌、亚马逊都在大规模建设AI数据中心,如今,单个超大数据中心的负荷,已经接近一个中型城市。

根据IEA的报告数据显示,全球数据中心电力需求到2030年将翻倍至约945 TWh。
“算力最终比拼的是电力”,这句话正在AI时代被一次次验证。生成式人工智能掀起的浪潮,让全球数据中心和智算中心的能耗曲线几乎呈现指数级增长。这份OpenAI提交的文件,其实是一次“能源预警”。它不仅仅是AI企业的诉求,更像是科技行业在告诉政府:电力已成为AI发展的“第一生产要素”。
AI的增长速度已经远超电网扩张速度,一块算力芯片可以一年换代,但电力系统则需要5-10年规划和审批。电力,不再只是支撑IT系统的“后台资源”,而是决定算力产业版图的新变量。
OpenAI的 “Stargate”项目
OpenAI并不只是写信呼吁。 它正在美国的德克萨斯、新墨西哥、俄亥俄和威斯康星建设名为 “Stargate” 的数据中心群。
这批项目计划在未来三年内新增7GW算力容量,总投资超过4000亿美元。更有意思的是,他们在设计上引入了可削减负载机制(Flexible Load):当电网负荷高时,数据中心能自动降功率运行,甚至反向输电,为电网“减压”。 这也是AI算力设施与电力系统协同的新尝试。
每年100GW:一场新的基础设施竞赛
OpenAI建议,美国应从2026年起,每年新增100GW发电和输电能力。这个计划几乎等同于每年都要建设100座大型电站或数百个分布式光储项目的规模。

▍他们在文件中提出了一系列具体政策建议,包括:
- 强化美国工业基础
- 更新和简化能源相关法规:以释放更多的电力产能
- 通过AI教育与职业培训:培养未来劳动力
- 确保前沿AI系统服务于国家安全:并推动政府部门扩大AI采用
OpenAI认为,这样的投资不仅能保障AI发展所需电力,而且首批1万亿美元的AI基础设施投资,在三年内可为美国GDP带来超过5%的额外增长。
过去我们常说“算力焦虑”,而现在,AI巨头开始直面更深层次的“电力焦虑”。这背后也反映出了一个重要的现实:AI正在推动全球能源系统结构重构。
未来,无论是数据中心、储能系统、电网调度,还是可再生能源消纳,都将为AI的负载需求重新设计。电力不再只是支撑产业的配套条件,而是AI发展的“地基”
报告最后那句话是这样说的:
把握AI机遇,必须先把握能源机遇。“Seizing the AI opportunity requires seizing the energy opportunity.”
索比光伏网 https://news.solarbe.com/202511/05/50011882.html

