AI为何是耗电费水“大魔王” 热潮之下也有“暗礁”


2024-10-07 重庆开荒保洁

  但是,在AI大模型百舸争流背后,多项研究表明,大模型运行极其耗电费水,也会带来极高的碳排放量。有网友开玩笑说“只要电费贵过馒头,AI就永远不能完全代替人”。

  在技术进步与能源消耗的矛与盾之间,将如何破题?AI热潮下又该如何为未来去除“暗礁”?

  根据斯坦福人工智能研究所发布的《2023年人工智能指数报告》,OpenAI的GPT-3单次训练耗电量高达1287兆瓦时(1兆瓦时=1000千瓦时),也就是127.8万度电。

  这是什么概念?据美国国家环保署评定,特斯拉Model Y每百英里(161公里)耗电28千瓦时,1278兆瓦时相当于3000辆特斯拉,每辆跑满20万英里(32.2万公里)。大多数司机认为跑满30多万公里大关是汽车寿命上限。这在某种程度上预示着,大模型的单次训练耗电,就等于3000辆特斯拉跑到报废所需要消耗的电量。

  AI的耗电大多数来源于两个阶段——训练阶段和推理阶段。训练阶段涉及大量数据集的输入和模型参数的调整,而推理阶段则是模型根据新数据生成输出结果的过程。

  在大模型推理阶段,当用户使用时,根据估算,每生成1000个英文单词大约消耗0.125千瓦时的电量,也就是说每问8次就会消耗1度电,而1度电电量可至少充电50次手机,吹55分钟的空调,让笔记本电脑工作约10-15小时,让电视机播放约10个小时。而一个中等规模的电影放映厅,放映90分钟的电影,用电才17度,相当于136个用户在ChatGPT只问一次的电量。

  ChatGPT现在差不多2亿用户,有多个方面数据显示,其单日耗电量至少超50万千瓦时,一年电费就要近2亿美元。

  除了OpenAI,谷歌也“吃电量”惊人:在谷歌搜索中应用生成式AI技术,谷歌每年的耗电量将高达290亿千瓦时,也就是每天约7900万度电。这相当于2.37亿台特斯拉跑到报废所需要消耗的电量。

  此外,亚马逊也估计,运行AI的能耗费用中,90%来自用户查询模型以获得结果的阶段,大约相当于训练阶段的10倍。

  在今年2月,OpenAI首席执行官萨姆·奥特曼表示,AI技术消耗的电力将远远超出人们预期。

  “AI技术的发展速度前所未见,到了明年人类就只有少数的电力来运行所有的芯片了。”一个月前,马斯克也表达了同样的“缺电焦虑”。

  虽然太阳能和风能发电不用消耗水,但是火电、天然气和核能发电都会消耗大量水。

  服务于AI的芯片制造也是一个高度复杂和精密的过程,涉及大量的清洗和化学处理步骤,这些步骤常常要用到超纯水。生产一个智能手机芯片大约需要消耗5吨多的水。

  在AI数据中心,除了芯片,“耗电”的重要机器还有风扇。如果没有不断吹过一排排计算机的冷空气,先进的芯片能将自己烧毁。

  近年来,液冷的散热方式成为AI算力中心的部署趋势。多个方面数据显示,与传统的风冷系统相比,新型液冷系统可节省用电量的30%至50%。

  仍以初级的GPT-3为例,有学术研究显示,GPT-3在训练期间耗水近700吨,足以用来生产370辆宝马汽车或320辆特斯拉电动汽车。

  “人们需要意识到,使用大模型和训练大模型并不是不需要水的”加州大学河滨分校表示人工智能模型的“巨大水足迹”一直“隐藏在雷达之下”,令人担忧。

  值得一提的是,公开资料显示,微软承认用水是训练大模型的一大成本,从2021年到2022年,其全球用水量飙升了34%,相当于2500个奥运规格游泳池的大小。

  弗吉尼亚理工大学的研究指出,Meta在2022年使用了超过260万立方米的水,主要是数据中心使用。

  有调研估算,到2027年,全世界内的AI需求在大多数情况下要消耗掉66亿立方米的水资源,相当于杭州西湖水量的450多倍、75个武汉东湖、9个云南滇池。

  换句话说,AI的高耗电耗水量也带来了经济成本的上升,这一成本最终转嫁到了消费者身上。

  或许,这就不能理解,为何OPEN AI的奥特曼会在今年认为未来两种重要的货币是算力和能源。

  今年1月底,美国信息技术与创新基金会(ITIF)发布报告《重新审视对AI能耗的担忧》称,应为AI模型制定能源透明度标准。

  实际上,热潮之中的AI也不是最耗能源的,跟“数字黄金”的比特币比起来,甚至相形见绌。

  他表示,进入比特币账户一次,就比一个家庭一天的耗电量要高,比特币使用太频繁会造成气候危机。

  剑桥大学正在开展的一项研究估计,比特币涉及的二氧化碳排放高达7250万吨。如果所有比特币矿工都使用水电,这一数字可低至300万吨。相比疯狂耗电的加密货币,AI大模型似乎微不足道。

  正如马斯克所说,一个新兴起的产业爆发所带来的电力需求,完全有可能颠覆原来的想象,更何况需要电力的不止AI,还有电动车、电动机器人、电解水制氢等等。

  面对新技术带来的挑战,科技公司正在探索多种解决方案。一方面,通过优化算法提高效率,如模型量化和剪枝,减少计算量和电量消耗。另一方面,新型能源的投资也成为了一个重要方向。未解决用电问题,微软和OPEN AI都在布局核聚变发电装置。

  国际能源署在今年1月发布的报告中预测,未来三年,全球对数据中心、密码货币和人工智能的电力需求将增加一倍以上,相当于一个德国的全部电力需求。到2026年,全球总体电力需求预测将增长3.4%。

  根据国际能源署的数据,数据中心和输电网络的能源消耗已各占全球总量的1.5%。它们每年的碳排放总量与巴西相当。

  中国作为全球算力总规模排名第二的国家,正在通过提升AI和电力有关技术、优化数据中心软硬件技术,以及利用丰富的绿色电力资源来应对AI耗电问题。

  在海南陵水,海平面下30余米的海床上,单个重达1300吨的数据舱安静地运转着,这是全球首个商用海底数据中心项目。

  海洋是全球最大的自然冷源,将数据中心建在海底,优点是减少数据中心在制冷上所需的能耗,在几乎不消耗淡水资源的同时,能支持更高的功率密度,进而稳定地提供澎湃算力。

  海兰云海底数据中心海南示范开发项目总经理蒲定对外介绍,以100个海底数据舱为例,相较于同等规模的陆地传统数据中心,海底数据中心每年能节省用电总量1.22亿千瓦时、节省建设用地面积6.8万平方米、节省淡水10.5万吨。

  可谓是省电、省水、省地,一举多得。全球已实现在海底建设数据中心的只有两个国家,一个是中国,另一个就是美国。


扫一扫访问移动端