随着技术的发展,AI大模型在给人类社会带来巨大变革的同时,却也成为能源消耗大户。据媒体报道,此前引爆全球人工智能产业浪潮的ChatGPT,每天的耗电量已超过50万千瓦时。
据美国《纽约客》杂志报道,美国开放人工智能研究中心,也就是OpenAI的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的约2亿个请求。相比之下,美国一个家庭平均每天的用电量约为29千瓦时,也就是说,ChatGPT每天用电量是美国家庭平均用电量的1.7万多倍。而且如果生成式AI被进一步采用,耗电量可能会更多。
根据全球数据中心标准组织之一“国际正常运行时间协会”的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%猛增到10%。而荷兰国家银行数据科学家德弗里斯在一篇论文中估计,到2027年,整个人工智能行业每年将消耗850亿至1340亿千瓦时的电力。届时,人工智能的用电量可能占全球总用电量的0.5%。据他推算,如果谷歌将生成式人工智能技术整合到每次搜索中,每年将消耗约290亿千瓦时的电量。这比肯尼亚、危地马拉和克罗地亚等国一年的用电量还要多。
分析指出,生成式AI带来的种种创新,都是以处理性能和功耗方面的高昂成本为代价。马斯克曾预测,未来两年内行业将由“缺硅”变为“缺电”,而这可能阻碍人工智能的发展。在他看来,电力短缺可能会造成严重后果,就像芯片短缺一度阻碍科技和汽车行业一样。