AI正在“吸干”全球电力?更可怕的事还在后面
近年来,人工智能(AI)的崛起引起了广泛的讨论和担忧,很多人担心 AI会造成失业率飙升,而有些乐观的朋友则戏称“只要电费贵过馒头,AI 就永远不能完全代替人”。
虽然这是句玩笑话,但背后则是实实在在的AI能耗问题,越来越多的人担忧高能耗将成为制约 AI发展的瓶颈。就在不久前,技术创业者、前谷歌工程师凯尔·科比特(Kyle Corbitt)在社交媒体 X上表示,微软已经遇到了这方面的难题。
AI 到底有多费电?
科比特称,训练 GPT-6 的微软工程师们正忙着搭建 IB 网络(InfiniBand),把分布在不同地区的 GPU连接起来。这项工作很困难,但他们别无选择,因为如果把超过 10 万块 H100 芯片部署在同一个地区,电网就会崩溃。
来源:X@corbtt
为什么这些芯片集中起来会导致电网崩溃的后果呢?让我们来简单算一笔账。
图库版权图片,转载使用可能引发版权纠纷
英伟达网站上公布的数据显示,每块 H100 芯片的峰值功率为 700W,10 万块 H100 峰值功耗最高可达 7000万W。而 X 评论区有能源行业从业者指出,10万块芯片的总能耗将相当于一座小型太阳能或风能发电厂的全部输出。除此之外,还要考虑这么多芯片的配套设施的能耗,包括服务器和冷却设备。这么多耗电设施,集中在一小片区域,给电网带来的压力可想而知。
AI 耗电,冰山一角
关于 AI 能耗问题,《纽约客》的报道一度引起广泛关注。报道估算,ChatGPT 每日耗电量或超过 50万千瓦时。(参见:ChatGPT 日耗电超 50万度,卡死AI发展的竟然是能源?)实际上,目前AI耗电量虽然看上去是个天文数字,但仍然远远不及加密货币和传统的数据中心。而微软工程师遇到的难题也表明,制约AI 发展的不仅是技术本身的能耗,还有配套基础设施的能耗,以及电网的承载力。
国际能源署(IEA)发布的一份报告显示,2022 年全球数据中心、人工智能和加密货币的耗电量达到 460TWh,占全球能耗的近 2%。IEA 预测,在最糟糕的情况下,到 2026 年这些领域的用电量将达 1000TWh,与整个日本的用电量相当。
但是,报告同时显示,目前直接投入 AI 研发的能耗远低于数据中心和加密货币。英伟达在 AI服务器市场中占据约 95%的份额,2023 年供应了约 10 万块芯片,每年耗电量约为 7.3 TWh。但是在 2022年,加密货币的能耗为 110 TWh,与整个荷兰的用电量相当。
图注:2022 年与 2026 年,传统数据中心、加密货币、AI 数据中心的能耗估计值(柱状图从下往上依次展示)。可见,目前AI 耗电量远低于数据中心和加密货币。图片来源:IEA
冷却能耗,不容忽视
数据中心的能效通常用能效比(Power Usage Effectiveness)评估,即消耗的所有能源与 IT负载消耗的能源的比值。能效比越接近于 1,表明数据中心浪费的能源越少。数据中心标准组织 Uptime Institute发布的报告显示,2020 年全球大型数据中心的平均能效比约为 1.59。也就是说,数据中心的 IT设备每消耗 1 度电,其配套设备就消耗 0.59 度电。
数据中心的额外能耗中,绝大部分应用于冷却系统。一项调查研究显示,冷却系统消耗的能量可达数据中心总能耗的40%。近些年,随着芯片更新换代,单台设备的功率增大,数据中心的功率密度(即单位面积耗电量)不断提升,对散热提出了更高的要求。但与此同时,通过改进数据中心设计,就能大幅减少能量的浪费。
因为冷却系统、结构设计等各方面的差异,不同数据中心的能效比差异很大。Uptime Institute报告显示,欧洲国家已经把能效比降到了 1.46,而在亚太地区仍有超过十分之一的数据中心能效比超过 2.19。
世界各国正在采取措施,敦促数据中心实现节能减排的目标。其中,欧盟要求大型数据中心设立余热回收设备;美国政府注资研发更高能效的半导体;中国政府也出台措施,要求数据中心从2025 年起能效比不高于 1.3,并将可再生能源使用比例逐年上调,到 2032 年达到 100%。
图注:2020年,全球各地大型数据中心的能效比。从左到右依次为:非洲、亚太地区、欧洲、拉丁美洲、中东、俄罗斯及独联体国家、美国和加拿大。图片来源:UptimeInstitute
科技公司用电,节流难开源更难
随着加密货币和 AI 的发展,各大科技公司的数据中心规模不断扩大。据国际能源署(IEA)统计,在 2022 年美国拥有 2700座数据中心,消耗了全国用电量的 4%,并预测这一比例到 2026 年将达到6%。随着美国东西海岸用地越发紧张,数据中心逐步向爱荷华州、俄亥俄州等中部地区转移,但这些二线地区原有的产业并不发达,电力供应可能无法满足需求。
一些技术公司尝试摆脱电网的束缚,直接从小型核电站购买电能,但这种用电方式和新建核电站都要面临复杂的行政流程。微软尝试使用 AI辅助完成申请,而谷歌使用 AI进行运算任务调度,以提高电网运行效率,降低企业碳排放。至于可控核聚变何时投入应用,目前仍然是未知数。
气候变暖,雪上加霜
AI的研发需要稳定而强大的电网支持,但随着极端天气频发,许多地区的电网正在变得更加脆弱。气候变暖会导致更加频繁的极端天气事件,不仅造成用电需求激增,加重电网负担,还会直接冲击电网设施。IEA报告指出,受干旱、降雨不足和提早融雪的影响,2023 年全球水力发电占比下跌到三十年来的最低值,不足 40%。
天然气往往被视为向可再生能源转型过程中的一座桥梁,但它在冬季极端天气下并不稳定。2021年,寒潮袭击美国得克萨斯州,导致大面积断电,部分居民家中断电超过 70小时。这次灾难的一个主要原因就是天然气管道冰冻,造成天然气发电厂停摆。北美电力可靠性委员会(North AmericanElectric Reliability Council,简称 NERC)预测,在 2024-2028 年,美国、加拿大有超过 300万人口面临越来越高的断电风险。
为保障能源安全,同时实现节能减排,许多国家也将核电站视为一种过渡措施。在 2023 年 12 月举办的联合国应对气候变化委员会第28 次峰会(COP 28)上,22 个国家签署联合声明,承诺到 2050 年将核能发电能力提升到 2020 年水平的 3倍。与此同时,随着中国、印度等国大力推进核电建设,IEA 预测到 2025 年,全球核电发电量将达到历史新高。
“华龙一号”航拍。图库版权图片,不授权转载
IEA 报告指出:“在变化的气候模式面前,提高能源多样化、提升电网跨区域调度能力和采取更加抗冲击的发电方式将变得越发重要。”保障电网基础设施,不仅关系到 AI 技术的发展,更是关乎国计民生。
还没有人评论
还可输入500个字!