[STM32N6] STM32N6-AI 生态系统如何支持 Keras、TensorFlow™等主流 AI 框架模型

[复制链接]
588|10
Estelle1999 发表于 2025-10-21 13:33 | 显示全部楼层 |阅读模式
STM32N6-AI 生态系统如何支持Keras、TensorFlow™等主流 AI 框架模型

公羊子丹 发表于 2025-10-29 07:24 | 显示全部楼层
我看 ST 现在主推的还是通过 STM32Cube.AI 工具链,把 Keras 或 TensorFlow Lite 模型转成 C 代码,直接在 N6 的硬件加速器上跑。转换过程挺顺的,关键是模型得先量化。
周半梅 发表于 2025-10-29 07:25 | 显示全部楼层
我试过在 STM32N6 上部署一个 Keras CNN 模型,先用 TensorFlow Lite 转成 .tflite 文件,再用 Cube.AI Importer 导入。只要层结构是支持的,就能直接跑,算力也不错。
帛灿灿 发表于 2025-10-29 07:26 | 显示全部楼层
听说 N6 自带 NPU,兼容性比之前的 H7、U5 好很多,尤其是卷积层和激活函数种类更全,复杂模型几乎不用手动改结构。
童雨竹 发表于 2025-10-29 07:27 | 显示全部楼层
有个坑要注意:如果模型里用了自定义层或者 Lambda 层,Cube.AI 可能识别不了。建议导出前先把模型简化成标准层,或者用 tf.keras.layers 替代。
万图 发表于 2025-10-29 07:28 | 显示全部楼层
我怀疑 ST 后面会直接支持 ONNX,因为现在很多 PyTorch 模型都走那条路线,到时候兼容性应该更好。
Wordsworth 发表于 2025-10-29 07:29 | 显示全部楼层
其实官方的 STM32 Model Zoo 已经有一些例子,比如图像分类、目标检测,都能直接跑在 N6 上,用来测试挺方便的。
Bblythe 发表于 2025-10-29 07:30 | 显示全部楼层
你可以在 STM32Cube.AI Developer Cloud 上试下在线转换功能,不用装工具,上传 Keras 模型就能看到内存占用和推理时间,非常直观。
Pulitzer 发表于 2025-10-29 07:31 | 显示全部楼层
我建议在量化时用 QAT(量化感知训练),否则直接 PTQ 转换后精度掉得挺明显的,尤其是 float32 转 int8 的时候。
Uriah 发表于 2025-10-29 07:32 | 显示全部楼层
N6 的 NPU 支持混合精度计算,所以可以只量化权重不量化激活值,这样既节省资源又保持精度,这点比前几代进步大。
Clyde011 发表于 2025-10-29 07:32 | 显示全部楼层
我感觉 ST 这次是真打算把 AI 当重点方向了,不仅 Cube.AI 升级频繁,还开放了 X-CUBE-AI Studio,可以自己跑性能评估,挺有诚意的。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

102

主题

1596

帖子

2

粉丝
快速回复 在线客服 返回列表 返回顶部