AI有多耗电?
•劳伦斯伯克利国家实验室的报告指出,到2028年,美国AI专用电力需求将升至每年165-326太瓦时,超过当前所有数据中心总用电量,可供应22%美国家庭,排放量相当于绕地球12万圈或往返太阳1600次。
•据统计,AI聊天机器人ChatGPT每天处理约10亿次查询,每次生成内容的耗电约0.0029度。换算下来,ChatGPT每日在全球的耗电量相当于10万个美国家庭一天的用电量。
•人工智能专家卢乔尼的一项研究表明,使用AI产生一张高清图像所消耗的能源相当于为手机电池充满电。
AI为何耗电?
•从芯片上分析,大语言模型需要庞大的算力支撑,特别是拥有平行运算能力的GPU(图形处理器),而一块GPU的能耗比CPU(中央处理器)高出10到15倍。如一块英伟达A100 GPU功耗为400瓦,GPT-3训练用到了1024块A100芯片,而GPT-4则用了25000块,数量的激增导致能耗显著增加。
•从运行机制上分析,虽然GPU架构非常适合AI算法,可以节省计算时间,不过目前使用率比较低,一般在32%到36%,且故障率高,导致训练周期长,如GPT-4训练耗时长达90至100天,进而引发长期的能源消耗。