本帖最后由 dffzh 于 2025-9-18 11:05 编辑
上周与大家分享了一篇文章,即“详解边缘AI的定义和应用场景”(链接https://bbs.21ic.com/icview-3483410-1-1.html),今天与大家分享一下NPU的主要功能和应用。 百度搜索一下NPU,就能看到不少厂家推出的专用NPU芯片:
 所谓NPU(Neural Processing Unit),可以翻译为神经网络处理器,它的核心是一个专门为执行人工智能(AI)和机器学习(ML)任务而设计的微处理器,特别是那些涉及神经网络的计算,你可以简单地将它理解为一个为AI计算而生的“专职专家”。 为什么需要NPU呢?它主要能解决什么问题呢? 传统的CPU(中央处理器)是“全能型选手”,擅长处理各种复杂多样的任务(比如运行操作系统、办公软件、游戏逻辑等),但它的架构对于需要海量并行计算的AI任务来说效率并不高,而且功耗很大。 GPU(图像处理器)比CPU更擅长并行计算,最初是为处理图像(大量重复的像素计算)而设计的,后来被发现也非常适合训练AI模型,但它仍然是一个“通用型”的并行处理器,并非为AI计算量身定制。 NPU的出现就是为了解决效率和功耗问题: 极高效率: NPU采用了专门为矩阵运算、卷积计算等神经网络核心算法设计的硬件架构(如存算一体、专用数据流等),可以在单个时钟周期内完成海量计算。 低功耗: 由于使用专用电路,完成任务的速度极快,所需的时间更短,因此整体功耗远低于CPU和GPU,这对于手机、摄像头等移动设备和IoT设备至关重要。 高吞吐量: 能够同时处理大量数据,非常适合神经网络推理(Inference)任务。 打个比喻,方便大家理解: CPU像是一位知识渊博的老教授,任何问题都能解决,但一次只能处理一件事,速度慢; GPU像是一群大学生,可以同时处理大量相似的简单任务(比如画像素),效率很高; NPU则像是一个为解特定类型方程而生的超级计算机,只做这一件事,但在这件事上天下无敌,又快又省电。 NPU主要做什么工作呢?有哪些应用场景呢? NPU主要用于神经网络的推理阶段,而不是训练阶段。 推理:将训练好的模型应用到实际数据中,做出预测或判断,这正是NPU的主战场。 训练:通常在海量数据和强大的GPU/算力集群上进行,目的是“学习”出一个模型。 常见应用包括: 智能手机: 拍照增强:场景识别、人像虚化、夜景模式降噪; 语音助手:本地语音识别(如Siri、小爱同学); 面部解锁:快速安全地识别机主面部。 智能安防与自动驾驶: 实时物体识别:在视频流中识别行人、车辆、交通标志等; 行为分析:判断异常行为。 智能家居: 智能音箱的语音识别; 机器人视觉导航。 数据中心: 加速云端的AI服务,如推荐算法、图像识别API等。 NPU与其他处理器有什么关系呢? 在现代计算系统中,NPU通常不会单独工作,而是与其他处理器协同工作,形成异构计算架构。 CPU:作为大脑,负责整体的控制、调度和通用任务处理,它告诉NPU“该做什么”。 GPU:处理图形渲染任务,同时也作为NPU的补充,处理一些更复杂的AI计算或图形相关的AI任务。 NPU:专职处理AI负载,当需要运行AI应用时,CPU会将任务卸载(Offload)给NPU,由它来高效完成。 举个例子方便理解: 当你用手机拍一张人像照片时: CPU控制整个相机App的运行和界面响应; 你按下快门后,GPU可能负责处理图像的初步渲染; 同时,NPU被调用,迅速识别画面中的人脸、背景,并实时计算虚化效果; 最后,CPU再将所有处理结果进行整合,保存成一张照片。 综上所述,简单来说,NPU就是设备里的“AI引擎”,它的普及使得AI功能从云端下沉到我们手中的设备上(即所谓的边缘AI计算),让实时、高效、保护隐私的本地AI体验成为可能,像华为麒麟芯片中的达芬奇架构NPU、苹果A系列芯片中的神经网络引擎(NeuralEngine) 都是NPU的典型代表。 在文章结尾,给大家列一下常见的扩展处理器XPU及其英文全称: 
|