IT之家把稳到,法国施耐德电气公司早在去年 10 月就估计,用于 AI 运用的数据中央的总功耗已经与塞浦路斯全国相称。那么,最热门的 AI 处理器之一 —— 英伟达的 H100,功耗究竟几何?
微软数据中央技能管理和计策部门首席电气工程师保罗・楚诺克(Paul Churnock)预测,到 2024 年底,当数百万块 H100 支配完毕时,其总功耗将超过美国亚利桑那州凤凰城所有家庭的用电量,但仍低于得克萨斯州休斯敦等更大的城市。
楚诺克在领英上发帖称:“英伟达的 H100 GPU 峰值功耗为 700 瓦,按照 61% 的年利用率打算,相称于一个美国家庭的均匀功耗(假设每个家庭 2.51 人)。英伟达估量,2024 年 H100 的销量将在 150 万到 200 万块之间。按城市居民用电量排名,H100 的总功耗将位居全美第五,仅次于休斯敦,排在凤凰城之前。”

按照 61% 的年利用率,每块 H100 每年将花费约 3740 千瓦时 (kWh) 的电量。如果英伟达在 2023 年售出 150 万块 H100,2024 年售出 200 万块,到 2024 年底,将有 350 万块 H100 芯片被支配。这些芯片的总年耗电量将达到惊人的 130.91 亿千瓦时,即 13091.82 吉瓦时 (GWh)。
比较之下,格鲁吉亚、立陶宛或危地马拉等国家的年均电力花费也大约为 13092 吉瓦时。虽然 H100 的功耗令人震荡,但值得把稳的是,AI 和高性能打算 (HPC) GPU 的效率正在不断提高。因此,虽然英伟达下一代 Blackwell 架构的 B100 芯片的功耗可能会超过 H100,但它也将供应更高的性能,从而以更少的单位功耗完成更多事情。
随着 AI 技能的发展,如何平衡算力与能耗之间的抵牾,将成为未来亟需办理的主要课题。