随着AI技术的广泛应用,从智能手机到自动驾驶汽车,从智能家居到工业自动化,AI应用落地的速度之快、范围之广,导致了市场对于AI算力需求的大幅增长。在追求高算力的同时,市场对于低功耗、高能效比的芯片需求也日益强烈。
但在技术上,大算力往往伴随着高功耗,而低功耗又可能限制了算力的发挥。当前芯片主要采用冯·诺依曼架构,存储和计算物理上是分离的,过去二十年,处理器性能以每年大约55%的速度提升,内存性能的提升速度每年只有10%左右。结果长期下来,不均衡的发展速度造成了当前的存储速度严重滞后于处理器的计算速度,出现了“存储墙”问题,最终导致芯片性能难以跟上需求。
英伟达提出的“黄氏定律”,预测GPU将推动AI性能实现逐年翻倍,采用新技术协调并控制通过设备的信息流,最大限度减少数据传输,来避免“存储墙”问题。
不同于英伟达的做法,还有一部分芯片玩家将突破点放在冯·诺依曼架构上,他们打破传统的冯·诺依曼架构,创新计算范式,基于全球领先的存算一体技术和存储工艺,突破智能计算性能及功耗瓶颈,可将芯片每瓦功耗的算力提升5-10倍。
另外在实际应用中,并不是所有的场景下都需要通用的AI计算需求,大部分只需要能处理单一类型的AI就好,在智能终端中,常用的方式是内置NPU模块,以实现高效能、低功耗的算力。
低功耗与高算力是芯片发展中的两个关键目标,它们共同决定了芯片的能效比。虽然在技术上存在一定的相悖性,但通过技术创新和优化,行业正在逐步克服这一难题。未来,随着技术的不断进步,人们有望看到更多高性能、低功耗的芯片产品,为各行各业的智能化转型提供强大的支持。
|