[应用相关] 如何衡量资源够不够用

[复制链接]
727|10
 楼主| sourceInsight 发表于 2020-11-8 16:59 | 显示全部楼层 |阅读模式
现有一复杂算法,想在DSP上做实现,如何衡量资源够不够用呢?
是不是要从占用的内存资源看,顺便看下同一时间所需最大的运算单元,DSP够不够
不太明白速度是个啥概念
feiqi1 发表于 2020-11-8 17:02 | 显示全部楼层
PC上写个C程序:
1. 定时器启动.(t1)
2. 执行你的算法.
3.定时器结束.(t2)
androidbus 发表于 2020-11-8 17:04 | 显示全部楼层
t2-t1是你的算法的时间,以秒为单位. 假设你的PC CPU是1GHz, 那么大约执行该算法的CPU指令数是1G * (t2-t1).
litengg 发表于 2020-11-8 17:11 | 显示全部楼层
如果你选用的DSP是500MHz, 不考虑并行指令的因素,那该DSP的MIPS是500. 看看1G*(t2-t1)是不是大于
500
qiangweii 发表于 2020-11-8 17:12 | 显示全部楼层
至于memory的评估,如果DSP可以外接外部memory,比如DDR, SDRAM,那么空间可能就没啥问题,但要考虑比如数据\程序放在外部空间会降低DSP的效率,进而对MIPS有影响.
shashaa 发表于 2020-11-8 17:13 | 显示全部楼层
纯C代码,基本上按这个计算就可以了,但要注意,你的程序在PC上测试时,要关掉系统中其它不相关程序。
xia00 发表于 2020-11-8 17:19 | 显示全部楼层
谢谢指点,通过主频和指令周期来算,确实是个比较靠谱的方法
hfdy01 发表于 2020-11-8 17:19 | 显示全部楼层
数据量有点大,外接的存储资源譬如DDR,SDRAM是一定会用的。。
CallReceiver 发表于 2020-11-8 17:25 | 显示全部楼层
这个对MIPS的影响,和内部的区别要怎么算。
boy1990 发表于 2020-11-8 17:26 | 显示全部楼层
对系统级的架构,譬如取址取数据是否占用数据周期不太了解,正在学习中
 楼主| sourceInsight 发表于 2020-11-8 17:31 | 显示全部楼层
有些是有具体的参数的,,没有具体参数的只能是凭开发者的经验了。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

138

主题

1619

帖子

1

粉丝
快速回复 在线客服 返回列表 返回顶部