给个思路:
PC上写个C程序:
1. 定时器启动.(t1)
2. 执行你的算法.
3.定时器结束.(t2)
t2-t1是你的算法的时间,以秒为单位. 假设你的PC CPU是1GHz, 那么大约执行该算法的CPU指令数是1G * (t2-t1).
如果你选用的DSP是500MHz, 不考虑并行指令的因素,那该DSP的MIPS是500. 看看1G*(t2-t1)是不是大于
500,大的太多估计500MHz的DSP不行. 考虑并行指令的因素,比如C6000,就算最大8条指令并行,可以算500*8 = 4000MIPS.
google一下该算法在其他DSP上有没有实现过的,这样就可以更准确的参考.
至于memory的评估,如果DSP可以外接外部memory,比如DDR, SDRAM,那么空间可能就没啥问题,但要考虑比如数据\程序放在外部空间会降低DSP的效率,进而对MIPS有影响. 如果不能外接memory,那要仔细研究算法,需要多少数据(静态/动态)/程序空间,哪些可以overlay?等等.
|