[AI] Neural-ART 加速器与 Edge AI Core 的整合方式及其对 AI 推理性能的影响

[复制链接]
597|11
MercuryStar 发表于 2025-10-20 20:42 | 显示全部楼层 |阅读模式
关于Neural-ART 加速器与Edge AI Core 的整合方式及其对 AI 推理性能的影响有多少?

是你的乱码 发表于 2025-10-31 01:15 | 显示全部楼层
Neural-ART 加速器与 Edge AI Core 通过软件工具链实现深度整合,这种整合显著提升了 AI 推理性能,使边缘设备能够高效处理复杂的 AI 任务。
公羊子丹 发表于 2025-10-31 07:14 | 显示全部楼层
我之前在跑TinyML模型时试过类似架构,Neural-ART加速器和Edge AI Core一起用时确实推理延迟降了不少,但前提是模型要做量化和层融合,不然性能提升不明显。
周半梅 发表于 2025-10-31 07:15 | 显示全部楼层
感觉关键在内存带宽和DMA协同调度,我试过在高并发任务下反而会出现瓶颈,可能需要手动优化中断优先级。
帛灿灿 发表于 2025-10-31 07:16 | 显示全部楼层
我觉得ST这套设计更像是面向能耗受限的AI边缘设备,尤其在低功耗模式下还能保持不错的推理速度,这点挺惊艳的。
童雨竹 发表于 2025-10-31 07:17 | 显示全部楼层
有人测过在浮点模型下的表现吗?我之前尝试用FP16推理,结果Edge AI Core部分没有完全利用,感觉瓶颈还在数据搬运上。
万图 发表于 2025-10-31 07:18 | 显示全部楼层
我怀疑很多人没注意到内核之间的cache同步机制,这会直接影响到Neural-ART的数据输入延迟,建议看看DMA通道配置。
Wordsworth 发表于 2025-10-31 07:19 | 显示全部楼层
这类架构其实挺依赖软件栈的,比如STM32Cube.AI生成的代码要和底层驱动版本匹配,不然AI Core加速功能可能被锁死。
Bblythe 发表于 2025-10-31 07:20 | 显示全部楼层
我建议楼主可以测试一下多模型并行加载的情况,看看调度器在AI Core和主核之间的任务切换效率,挺有参考价值的。
Pulitzer 发表于 2025-10-31 07:21 | 显示全部楼层
从我测试结果看,小模型(比如2~3层CNN)在Neural-ART上跑比在主核快3倍左右,但模型一大就开始掉速,推测是SRAM不够。
Uriah 发表于 2025-10-31 07:22 | 显示全部楼层
我随口一问,Edge AI Core是不是其实也支持ONNX模型?之前看到有人通过TensorFlow Lite转换成功,但文档没太详细说明。
Clyde011 发表于 2025-10-31 07:23 | 显示全部楼层
说实话,这类集成加速方案未来应该会成主流,如果能把Neural-ART和安全引擎结合,用于本地AI身份识别就太香了。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

29

主题

129

帖子

0

粉丝
快速回复 在线客服 返回列表 返回顶部