日前,前谷歌首席执行官(CEO)埃里克・施密特(Eric Schmidt)在国会能源与商业委员会的听证会上发出警告。他表示,随着人工智能AI技术的爆发式发展,其电力需求可能在未来数十年内激增到全球总发电量的99%。施密特指出,未来几年需要新增29吉瓦的电力供应,到2030年这一数字将攀升至67吉瓦,相当于新建数十座大型核电站的规模。他强调,为了推动人工智能的快速发展,必须尽快保障各类能源的供应,包括可再生和非可再生能源。
施密特的警告并非空穴来风。当前,全球科技巨头正加速布局AI基础设施。英伟达计划未来四年在美国投入5000亿美元建设AI超级计算机集群,而OpenAI最新发布的GPT-4.1模型处理能力较前代提升8倍,其训练成本虽降低26%,但能耗却成倍增长。
当前AI电力消耗已呈现指数级增长趋势。国际能源署(IEA)数据显示,2024年全球数据中心用电量占比达3%,其中AI模型训练和推理是主要驱动力。比如,OpenAI的ChatGPT每天消耗约50万千瓦时电力,相当于2万个美国家庭的日均用电量。而IEA警告,到2030年全球数据中心用电量将翻倍,超过日本全国总用电量。
更严峻的是,芯片制造环节的能耗增速远超预期。绿色和平组织报告显示,2023至2024年间,全球AI芯片制造电力消耗增长350%,到2030年可能较2023年增长170倍。
此外,AI在自动驾驶、工业自动化等众多应用场景不断扩展,这也进一步推高需求。Arm CEO雷内・哈斯(Rene Haas)预测,若当前能效未显著提升,到2030年美国AI数据中心用电量可能占全国电网的20%-25%。
为了应对AI带来的电力挑战,各国也都在制定应对策略。我国通过 “东数西算” 战略将数据中心向西部绿电资源富集地区迁移,部分数据中心绿电使用率已达80%。欧盟则计划投资超级计算基础设施,并推动AI与清洁技术融合,目标到2030年可再生能源占比超50%。
另外,在技术层面,液冷散热、低功耗芯片等新技术的应用也可以大幅度降低功耗。不过,放眼未来,可控核聚变技术的突破或许才是应对电力资源紧张的终极解决方案。
有话要说...