大公网

大公报电子版
首页 > 新闻 > 国际 > 正文

话你知/AI为何如此耗能?

2025-10-06 05:02:35大公报
字号
放大
标准
分享

  AI有多耗电?

  •劳伦斯伯克利国家实验室的报告指出,到2028年,美国AI专用电力需求将升至每年165-326太瓦时,超过当前所有数据中心总用电量,可供应22%美国家庭,排放量相当于绕地球12万圈或往返太阳1600次。

  •据统计,AI聊天机器人ChatGPT每天处理约10亿次查询,每次生成内容的耗电约0.0029度。换算下来,ChatGPT每日在全球的耗电量相当于10万个美国家庭一天的用电量。

  •人工智能专家卢乔尼的一项研究表明,使用AI产生一张高清图像所消耗的能源相当于为手机电池充满电。

  AI为何耗电?

  •从芯片上分析,大语言模型需要庞大的算力支撑,特别是拥有平行运算能力的GPU(图形处理器),而一块GPU的能耗比CPU(中央处理器)高出10到15倍。如一块英伟达A100 GPU功耗为400瓦,GPT-3训练用到了1024块A100芯片,而GPT-4则用了25000块,数量的激增导致能耗显著增加。

  •从运行机制上分析,虽然GPU架构非常适合AI算法,可以节省计算时间,不过目前使用率比较低,一般在32%到36%,且故障率高,导致训练周期长,如GPT-4训练耗时长达90至100天,进而引发长期的能源消耗。

点击排行