[研电赛技术支持] 大容量存储与扩展如何支撑边缘计算需求?

[复制链接]
636|72
benjaminka 发表于 2026-1-8 18:12 | 显示全部楼层
2MB Flash可完整存储轻量化神经网络模型,避免因存储空间不足导致的功能阉割
biechedan 发表于 2026-1-8 18:56 | 显示全部楼层
Cortex-M33内核与FPU加速推理,满足实时性要求。
qiufengsd 发表于 2026-1-10 11:11 | 显示全部楼层
在边缘 AI 领域,通常存在一个“不可能三角”:高精度、低功耗、实时性。
hilahope 发表于 2026-1-10 13:03 | 显示全部楼层
从Flash加载到RAM的模型,其权重参数会存放在SRAM中。单片机或NPU在计算时,需要以最快的速度读取这些权重。
juliestephen 发表于 2026-1-10 14:49 | 显示全部楼层
兆易创新 GD32W515 系列 MCU 专为高端物联网和 AI 应用设计
jonas222 发表于 2026-1-10 16:40 | 显示全部楼层
在传统单片机中,Flash 仅用于存储代码。但在 TinyML 场景下,Flash 主要用于存储神经网络模型的权重 和 偏置。
benjaminka 发表于 2026-1-11 18:12 | 显示全部楼层
解决了TinyML落地过程中的模型存储、权重加载和运行时内存三大核心瓶颈
wangdezhi 发表于 2026-1-13 09:59 | 显示全部楼层
Arm Cortex-M33 @ 180MHz,带TrustZone和FPU/DSP。这为运行TinyML推理引擎提供了必需的算力。
wangdezhi 发表于 2026-1-13 12:10 | 显示全部楼层
Arm Cortex-M33 @ 180MHz,带TrustZone和FPU/DSP。这为运行TinyML推理引擎提供了必需的算力。
wangdezhi 发表于 2026-1-13 12:59 | 显示全部楼层
Arm Cortex-M33 @ 180MHz,带TrustZone和FPU/DSP。这为运行TinyML推理引擎提供了必需的算力。
单芯多芯 发表于 2026-1-16 23:49 | 显示全部楼层
2MB存储足够容纳常用TinyML模型,满足需求。
wangdezhi 发表于 2026-1-17 10:57 | 显示全部楼层
Arm Cortex-M33 @ 180MHz,带TrustZone和FPU/DSP。这为运行TinyML推理引擎提供了必需的算力。
digit0 发表于 2026-1-19 18:06 | 显示全部楼层
TinyML模型经过处理后体积小,适合单片机应用。
jdqdan 发表于 2026-1-20 14:46 | 显示全部楼层
大容量存储通过提供更多数据存储空间,使边缘计算能处理更多数据,扩展接口则允许接入更多传感器,提升计算能力。
鹿鼎计 发表于 2026-1-20 22:56 | 显示全部楼层
通过SPI接口将外置Flash中的词库数据实时传输到SRAM,实现动态加载。
Pretext 发表于 2026-1-27 19:56 | 显示全部楼层
训练好的模型经过处理后,文件变得更小,便于单片机存储和执行。
Pretext 发表于 2026-2-24 15:08 | 显示全部楼层
这组合意味着存储容量大,处理速度快且功耗低,适合需要大容量存储且追求能效的产品。
yiyigirl2014 发表于 2026-2-25 10:07 | 显示全部楼层
通过本地数据闭环、低延迟处理、带宽减负、离线自治、AI 模型落地五大核心能力,解决边缘场景 “数据量大、实时性高、网络不稳、算力有限” 的痛点,
线稿xg 发表于 2026-2-27 09:51 | 显示全部楼层
经过训练、剪枝和量化,TinyML模型体积小巧,便于单片机存储和运行。
物联万物互联 发表于 2026-2-28 19:01 | 显示全部楼层
2MB闪存让AI模型固化,简化部署,方便即插即用。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 在线客服 返回列表 返回顶部
0