打印
[STM32H7]

H7做AI推理是不是太吃资源了?

[复制链接]
355|16
手机看帖
扫描二维码
随时随地手机跟帖
跳转到指定楼层
楼主
周半梅|  楼主 | 2025-4-18 07:21 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
跑个小模型就占一堆RAM?速度能跟上不?

使用特权

评论回复
沙发
Clyde011| | 2025-4-18 07:28 | 只看该作者
还是等STM32N6那种带加速的吧。

使用特权

评论回复
板凳
Uriah| | 2025-4-18 07:29 | 只看该作者
有人用H7真跑了吗?

使用特权

评论回复
地板
Pulitzer| | 2025-4-18 07:30 | 只看该作者
资源吃得太狠,适合高端项目。

使用特权

评论回复
5
Bblythe| | 2025-4-18 07:31 | 只看该作者
简单分类模型还可以。

使用特权

评论回复
6
Wordsworth| | 2025-4-18 07:32 | 只看该作者
移植TensorFlow Lite基本没戏。

使用特权

评论回复
7
公羊子丹| | 2025-4-18 07:33 | 只看该作者
我用CMSIS NN跑个模型,RAM瞬间爆了。

使用特权

评论回复
8
周半梅|  楼主 | 2025-4-18 07:34 | 只看该作者
速度确实一般,主要卡在卷积那。

使用特权

评论回复
9
帛灿灿| | 2025-4-18 07:35 | 只看该作者
居然还要开D-Cache,太复杂了。

使用特权

评论回复
10
童雨竹| | 2025-4-18 07:36 | 只看该作者
搞边缘AI还得用NPU系列。

使用特权

评论回复
11
万图| | 2025-4-18 07:37 | 只看该作者
ST那AI工具我没跑通过。

使用特权

评论回复
12
xiyaoko2365| | 2025-4-30 23:33 | 只看该作者
可能面临一些资源限制

使用特权

评论回复
13
温室雏菊| | 2025-5-17 16:30 | 只看该作者
STM32H7运行AI推理确实面临资源挑战,但通过模型优化、量化技术和硬件加速可实现高效部署,速度和内存占用可控制在合理范围内。

使用特权

评论回复
14
将爱藏于深海| | 2025-5-17 16:30 | 只看该作者
STM32H7具备双核Cortex-M7Cortex-M4架构,主频高达480MHz,并支持DSPDP-FPU指令,可显著提升AI推理速度。例如,在CMSIS-NN加速条件下,STM32H7每秒可推理12次某AI网络模型。

使用特权

评论回复
15
风凉| | 2025-5-17 16:35 | 只看该作者
STM32Cube.AI工具可自动优化模型,平衡推理时间和RAM占用。例如,选择“平衡”模式时,Flash和RAM占用均有一定下降,推理速度满足实时性要求

使用特权

评论回复
16
西洲| | 2025-5-17 17:10 | 只看该作者
AI模型通常需要较大的内存空间来存储权重和中间计算结果。例如,一个简单的CNN模型可能需要几百KB的Flash和RAM。

使用特权

评论回复
17
她已醉| | 2025-5-17 17:59 | 只看该作者
使用8位量化技术可将模型大小减少75%,显著降低内存占用。例如,STM32Cube.AI工具支持模型量化,将32位浮点模型转换为8位定点模型,内存占用可从MB级降至KB级。

使用特权

评论回复
18
失物招領| | 2025-5-17 18:00 | 只看该作者
通过动态内存分配和循环缓冲区设计,可进一步优化内存使用效率。例如,使用CMSIS-DSP库的SIMD指令加速矩阵运算,减少临时变量占用。

使用特权

评论回复
19
故意相遇| | 2025-5-17 19:30 | 只看该作者
将浮点模型量化为8位定点模型后,推理速度可提升数倍,同时保持较高精度。例如,MNIST手写数字识别模型量化后,在64KB Flash和2KB RAM的MCU上运行,准确率仍超80%。

使用特权

评论回复
20
白马过平川| | 2025-5-17 20:28 | 只看该作者
采用轻量化模型(如MobileNetYOLO-Fastest)和剪枝技术,可减少计算量并提升推理速度。例如,YOLO-Fastest模型经过裁剪后,单目标检测参数量仅几百KB,检测准确率达85%

使用特权

评论回复
发新帖 我要提问
您需要登录后才可以回帖 登录 | 注册

本版积分规则

84

主题

4868

帖子

1

粉丝