本帖最后由 STM新闻官 于 2025-1-24 13:49 编辑
在繁华都市的核心商业区,一座现代化的智能停车场正有条不紊地运转着。高清摄像头如同敏锐的眼睛,时刻捕捉着车辆的进出动态。当一辆汽车缓缓驶向停车场入口,摄像头瞬间启动,基于边缘 AI 技术的智能系统迅速对车辆进行识别。在微控制器中集成的神经处理单元(NPU)高效地处理着图像数据,快速比对车牌信息,短短几秒内便完成了车辆身份确认,并自动抬杆放行,整个过程流畅而迅速,无需依赖遥远的数据中心进行复杂运算,极大地提高了通行效率,避免了车辆拥堵。
这仅仅是边缘 AI 在日常生活中众多应用场景的一个缩影。
传统云端处理渐显疲态,边缘 AI 顺势崛起从智能手机的智能拍照、健身手环的精准活动监测,到零售领域的智能分析推荐、城市交通的智能管控,AI 已成为提升生活品质与生产效率的关键力量。然而,随着数据量呈爆炸式增长,传统云端处理模式渐显疲态。
传统 AI 处理依赖云端服务器强大算力,数据需长途跋涉往返云端,这在能耗、网络带宽及延迟方面带来巨大挑战。边缘 AI 则将计算推向数据源头 —— 边缘设备,大幅缩短数据处理路径,降低能耗与延迟,增强数据隐私保护。
ABI Research发布的预测结果显示,边缘AI市场规模将在未来十年间实现大幅增长。微控制器(MCU)是众多边缘设备的 “大脑”。相关数据显示,面向边缘AI应用的MCU部署数量将大幅增加,具体涉及农业、汽车、蜂窝网络、医疗保健、制造、个人和工作设备、零售以及机器人等多个垂直领域。预计该市场的规模将呈现指数级增长,且在2030年将达到近18亿件规模。
AI应用开发面临关键挑战,集成NPU解锁 MCU 潜能在利用AI提升设计水平时,产品开发人员必须应对以下关键挑战: 能源需求/消耗:AI与机器学习 (ML) 任务均需要用到庞大的算力,因此需要消耗大量的电能。 性能瓶颈:通用MCU难以满足神经网络 (NN) 的计算需求,这会造成性能瓶颈,阻碍AI应用发挥出应有的效能。 延迟和实时处理:高延迟会严重影响AI驱动型系统的性能和用户体验。 复杂度与成本:MCU的内存和处理能力有限,嵌入AI算法时会遇到困难。此外,现有的软件工具和AI框架也不太适合嵌入式开发需求。
因此,面对边缘AI的应用挑战,MCU性能提升至关重要,神经处理单元 (NPU)的集成恰是解锁 MCU 潜能的钥匙
神经网络计算拓扑通常涉及大量的内存访问,以及累加和乘法运算,而这些操作在传统的顺序架构中并未得到优化。边缘AI需要一种全新的架构,使嵌入式系统在面临功耗和硅片面积限制下,能够快速高效地执行AI推理。NPU的出现正是为了满足这一需求。 NPU 专为神经网络计算设计,以并行低延迟处理、高效节能及专门卷积神经网络指令集脱颖而出。在边缘设备严苛的功耗与资源限制下,NPU 能高效执行 AI 推理,成为边缘 AI 应用首选。NPU与微控制器的集成大大扩展了MCU的功能,使之能够执行先前无法完成的、更加复杂的AI任务,例如语音识别、目标分类、姿态估计,以及对移动速度更快、体积更小的目标进行目标分割定位等等。将AI推理任务转移到NPU后,MCU即可专注于其他关键功能,以确保获得实时、高效的处理效果。
意法半导体Neural-ART加速器加快边缘AI部署
为实现这一愿景,意法半导体倾力打造并推出Neural-ART Accelerator™系列首款产品:一款具有革命性架构的NPU,为实现无缝MCU集成量身定制。它配备高度并行化的硬件协处理器,适用于嵌入式应用中的AI工作负载分配。Neural-ART加速器集成在STM32 MCU中,能够在边缘设备上高效处理AI推理任务。Neural - ART 加速器融合多个专用硬件加速器,经可重构数据流处理引擎实现动态连接,适配多样推理内核。经测试,在人员检测与跟踪等实际应用场景中取得了出色处理性能。Neural - ART 加速器可使帧率飙升超百倍至 26fps,实现视频帧实时全分析,精准捕捉人员动态。
意法半导体还提供一整套工具和资源,并和第三方合作伙伴及开发人员着力打造充满活力的生态系统,支持用户在集成Neural-ART加速器的STM32 MCU上开发和部署AI模型,简化开发流程,帮助他们实现最理想的产品性能与效率。
想深入探究MCU集成 NPU 推动边缘 AI 变革的技术细节、应用实例与发展趋势,以及意法半导体如何通过将Neural - ART 加速器嵌入STM32 MCU为边缘AI应用开辟新天地?《推动边缘AI变革:现代微控制器中神经处理单元的强大威力》这份白皮书将为你详细解读,速速点击下载,一同迈进边缘 AI 创新的前沿阵地,探寻未来AI的无限可能。
点击下方按钮,即刻下载完整版白皮书!
|