人工智能时代的数据中心——
能源高消耗问题如何解
来源: 解放军报 2024-07-12 18:10:51 责编: 吕中石

数据中心。资料图片

近年来,人工智能迅猛发展,成为推动社会进步的重要力量。从智能家居到自动驾驶,从医疗诊断到金融风控,再到如今的AI聊天机器人,人工智能技术正在逐渐融入我们生活的方方面面。然而,这一切进步的背后,却隐藏着一个不容忽视的问题——数据中心的能源消耗问题。

作为支撑AI技术运行的“大本营”,数据中心承担着海量数据的存储、处理和传输任务,庞大的服务器群日夜不停地运转,带来了巨大的能源消耗。一家超大规模企业数据中心使用的电力,相当于约8万户家庭的用电量。据国际能源署预测,到2026年,全球数据中心的用电量可能超过1万亿千瓦时,相当于整个日本全年的用电量。

那么,为什么数据中心的能耗会如此之大呢?在数据处理与分析方面,能耗主要体现在算力上。以处理大规模并行复杂计算闻名的图形处理器(GPU)为例,如果装载上目前世界上最为先进的英伟达Blackwell B200芯片,其功率将超过1000瓦。芯片功率的提升,带来了能耗的增加。此外,为了保障数据中心的稳定性和安全性,还需要配备冷却系统对服务器24小时运行产生的大量热量及时排出,这同样需要消耗大量的电力。供能问题已成为制约数据中心运营的主要瓶颈,美国的埃隆·马斯克预测,这种电力短缺最早可能在2025年就出现。值得警醒的是,欧洲已经出现电力短缺的情况。2023年,欧洲的数据中心供能市场需求总量达到601兆瓦,而供应量为561兆瓦。

当前,以ChatGPT为代表的生成式人工智能应用呈火爆之势,数据中心的计算任务越来越复杂。随着大模型参数和数据规模的进一步增加,人工智能带来的能耗问题也将愈发突出。其高能耗主要来源于两个方面:一方面,训练AI模型需要大量的数据和计算资源,比如最先进的深度学习模型,其训练过程通常需要数十亿次的计算,这个过程消耗了大量的电力。以OpenAI的GPT-3模型为例,其参数量高达1750亿,训练过程需要1024张GPU,每天耗电量高达50万千瓦时,相当于美国家庭日平均用电量的1.7万多倍。另一方面,AI系统的推理过程同样消耗大量能量。AI模型在实际应用中需要实时处理海量数据,以提供快速、准确的决策支持,这种高频率的计算需求,进一步加剧了能源消耗问题。

尽管数据中心的高能耗问题严峻,但并非无法应对。当前,数据绿色治理已成为推进智能时代节能减排的必由之路。一方面,可以通过技术创新和管理优化来降低能耗,如优化AI模型结构、提高芯片计算效率、采用液冷等高效散热技术等。华为东莞松山湖数据中心采用了智能能源管理系统,提高了能源利用效率。另一方面,可以依靠新能源来满足数据中心的电力需求,太阳能、风能等可再生能源可以减少对化石能源的依赖,降低碳排放。微软、谷歌等科技巨头已经在大规模采用可再生能源为数据中心供电,百度阳泉数据中心与当地风力发电厂合作,实现了100%使用清洁能源。

人工智能的发展对数据中心能耗提出了更高的要求,但通过技术创新和新能源的应用,我们可以实现人工智能发展与节能降耗的双赢。在这个过程中,政府、企业和个人都需要共同努力,推动绿色数据中心的建设,为人工智能的发展创造良好的环境。只有这样,我们才能在享受人工智能技术带来便利的同时,保护好我们的地球家园。(雷 帅 刘雪涛

    相关新闻