ChatGPT日耗电超50万度大模型或带来“电荒”丨看天下
2024-09-19 重庆开荒保洁
据《纽约客》杂志报道,OpenAI的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的约2亿个请求。相比之下,美国家庭平均每天使用约29千瓦时电力,也就是说,ChatGPT每天用电量是家庭用电量的1.7万多倍。
实际上,此前就有多个方面数据显示,ChatGPT训练时就已耗电量巨大。根据斯坦福人工智能研究所(HAI)发布的《2023年人工智能指数报告》,OpenAI的GPT-3单次训练耗电量高达1287兆瓦时(1兆瓦时=1000千瓦时)。
这是什么概念?知名计算机专家吴军的形容并不夸张:大概是3000辆特斯拉电动汽车、每辆跑到约32万公里的总耗电量。
国盛证券估算,GPT-3的单次训练成本就高达140万美元,对于一些更大的LLM(大型语言模型),训练成本介于200万美元至1200万美元之间。
训练完成后,ChatGPT也仍然需要大量的计算能力来运行,并因此耗费大量能源,OpenAI每天在ChatGPT上的花费就高达70万美元。
不仅ChatGPT的耗电量惊人,其他人工智能软件的开发也在加剧对用电量的需求。以谷歌为例,其人工智能训练的耗电量占该公司总用电量的10%至15%,也就是每年耗电量在23亿度左右,而这相当于美国一个州首府所有家庭一年的用电量。
即使是由AI初创公司 Hugging Face 搭建的更高效的BLOOM模型,耗电量也达到433兆瓦时,足以为一个普通美国家庭供电41年。
可以预见的是,如果生成式AI被进一步采用,耗电量有一定的概率会更多。所以,大家为AI所描绘的盛世图景欢呼时,也应留意到盘踞在其上方的阴影——电力成本。
一项研究曾指出,在未来几年中,和AI相关的能源消耗很有可能会明显地增加。到2027年,生成式人工智能所消耗的能源可以为荷兰大小的国家提供一年的电力,相当于约85-134太瓦时(TWh)。
所以,很多人正在担心,随着人工智能的突飞猛进,“电荒”会否真的发生。特斯拉CEO马斯克就曾预言,未来两年内将由“缺硅”变为“缺电”,而这可能阻碍人工智能的发展。在他看来,电力短缺可能会导致非常严重后果,就像最近缺芯阻碍科技和汽车行业一样。