根据数据显示,使用ChatGPT进行一次查询,就需要消耗2.9瓦时的电量,相比之下,普通引擎搜索仅需0.3瓦时。到2026年,AI和加密货币数据中心的年电力消耗量可能会翻一番,从2022年的460太瓦时(TWh)飙升到1000TWh以上。
大多数数据中心使用图形处理器(GPU)来训练AI模型。GPU运行时需要大量能源,大约是传统CPU(中央处理器)的5倍。训练大语言模型需要数万个GPU,它们需要昼夜不停地运行数周或数月。模型训练完成后,需要托管和利用模型所依赖的数据。因此,数据中心的运转“根本停不下来”。
单个AI模型的耗电量可达数万千瓦时。据估计,ChatGPT等生成式AI模型的耗电量可能是其100倍。
除了系统本身,处理器还需要冷却,常见的技术包括电动通风和水冷却,这些也都需要能源。
哪里才能找到足够的电力来满足AI“的胃口”?当前,正在向净零碳排放迈进,数据中心需要可靠、稳定的基本能源,而太阳能和风能远远无法满足需求。因此,核能正在成为一个新选择。
|