打印

怎样使用DSP的cache

[复制链接]
2613|27
手机看帖
扫描二维码
随时随地手机跟帖
跳转到指定楼层
楼主
Orchids|  楼主 | 2018-4-17 10:30 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
怎样使用DSP的cache

 处理器中的cache是存放于处理器附近的高速存储器,它可以用来保存运算处理时的一些共有的指令,从而加速运算的速度。

   在本文中,将比较cache存储器和系统中的普通的存储器,随后将介绍cache的一些基本理论和基本术语,以及在高速处理器结构中cache的重要性。以TI的TMS320C64x DSP结构为基础,将着重向开发者介绍cache是如何工作,如何配置,以及如何正确使用cahce,本文将以cache的一致性贯穿全文。
  存储器结构

  在图一中,左边的模块介绍了普通的存储器系统结构,CPU和内部存储器均工作在300MHZ。当CPU访问外部存储器时,将不会发生存储器访问禁止的情况。并且当访问内部存储器时也不会发生访问延迟的情况。

  当CPU的时钟增加到600MHZ时,只有当存储器的速度也增加到600MHZ时才不会发生访问等待的状态。很不幸,对于大多数情况下同样频率工作在600MHZ的内部存储器价格将十分昂贵。而300MHZ的也不是好的选择,因为将大幅降低CPU的频率。设想一个算法需要在每个周期访问存储器,每一次对存储器的访问需等待一个周期,加倍了访问周期从而抵消了CPU的双倍工作频率。
  图一:普通存储器和多层存储器结构
  解决的办法就是采用一个多层次的存储器。最靠近CPU的存储器由一块速度快但体积小组成,访问时不存在任何延迟。稍远离一些CPU的采用体积大但速度稍慢的存储器。对于低级别的存储器来说,最靠近CPU的这块存储器便是典型的cache存储器
  位置法则

  当然,这个解决办法必须工作在CPU能够最快访问最近的存储器的情况时。由于位置法则,对于大多数CPU来说这一情况都是适用的。这意为着在一个特定的窗口时间内,程序仅仅访问全部地址空间的一块相关的小区域。这包括一下两个基本的位置种类:
  1、空间位置法则:一块刚刚被访问过的资源附近的资源更有可能被访问

  2、时间位置法则:在过去的一个时间点刚刚被访问的资源更有可能马上在将来被访问

  空间位置法则是由计算机程序的编程风格所决定的,一般情况下,相关的数据将被连续的存储在存储器中。例如一个共同的类型在计算时,总是将第一个元素放在第一列,然后是第二个元素,以此类推。同理,时间位置法则形成的原因是程序包含的结构比如循环结构调用的是相同的指令(甚至是同样的数据),以此反复。

  图二阐述了空间位置法则,它描述了一个6阶FIR滤波器。为了计算y[0]输出,将从输入数据缓存x[](值由预算法则对内存中访问的采样数据决定)里读出6个采样数据。当完成一次数据访问时,cache控制器从内存中取出x[0]和一系列的取样值地址。这个一系列的地址值称为cache 串。如果再从低速率的存储器中取出数据串将导致一些CPU的延迟周期。这样做的目的是而当进行以下计算时,临近x[0]的这些数据有可能马上将被访问。而对于FIR滤波器来说正好适用这个原则,因为接着的五个采样数值(x[1]-x[5])马上将被访问。这五个数值的访问过程将进入到cache中完成而不是在低速率的存储器中进行,因而不会产生任何延迟周期。
  图二:位置原则
   当计算下一个输出y[1]时,五个抽样值(x[1]-x[5]) 将被再次使用,只有一个抽样值(x[6])是新的。所有的抽样值已经提取到cache中,CPU不会发生任何的延迟。这个早先使用过的数据在数据处理中再次被用到的例子很好的说明了时间位置原则。

  cache是以局部时间地和空间地访问数据为基础的。因此极大的降低了对低速率的存储器访问,绝大多数数据访问都由高速cache存储器以CPU的工作频率服务于CPU。
存储器数率:

  cache系统代表性的包括三种级别
  1、第一级cache (L1)位于CPU芯片上并且运算于CPU工作频率。

  2、第二级cache(L2)也位于芯片上比L1速度慢而体积大。

  3、第三级cache(L3)位于CPU外部,是速度最慢体积最大的存储器。

  每一级别的cahce相应执行的因素决定于cache距离处理器的距离。表一中体现了一个有代表性的各自相应的时间。
  图三:在一个2ns时钟周期的具有多级cache系统的处理器cache执行时间
  当运算器需要从存储器中提取数据时,它首先在最高级的cache中寻找然后在次高级的cache中寻找。如果在cache中找到,则称为命中。反之,则称为不命中。

  一个cache系统的性能决定于cache申请命中的次数,也称为命中率。对于一个特定的级别的cache来说,一个高的cache命中率意为着更高的性能。而整个cahce系统的性能决定于各级cache的命中率。比如一个cache系统第一级 L1 cache命中率为70%,第二级L2cache命中率为20%,第三级L3cache命中率为5%,整个存储器的为5%,因此基于图三这个系统的平均存储器性能为:

  (0.7 * 4) + (0.2 * 5) + (0.05 * 30) + (0.05 * 220) = 16.30 ns

  为了阐述这个概念,我们以TI的TMS320C64x DSP 存储器结构为例,(表四)包含了一个两级内部cache存储器以及外部存储器。L1cache可以被CPU无延迟的访问。L2存储器可被编程并且可分配为L2SRAM(可设地址的片上存储器)和L2cache。无论何种设置中,L2存储器都只能每两个周期被访问一次。L2的大小决定于芯片的不同,但总是比L1大的多。以TMS320C6454 DSP为例,L2的大小为1MByte。而C64x DSP 最多支持2GBytes 的外部存储器。存储器的速度决定于存储器采用的技术种类,绝大多数在100MHZ左右。在图三中,所有的cache和数据通道均自动的由cache控制器控制。

  图四:TMS320C64x Cache 存储器结构
  Cache的数据更新

  因为cache也是主存储器中的一部分备份,因此cache是否能实时反映主存储器的数据显得至关重要。当cache里的数据改变,而主存储器内的数据未能改变时,cache里的数据被称为“脏”数据。当数据在主存储中改变,而cache中未能实时改变,cache里的这个数据被称为“延迟”数据。

  cache控制器采用一系列的技术来维持cache的一致性从而保证cache里存储的都是有用的信息而不是延迟数据。“监测”和“写回”操作便是两种保持cache一致性的办法。”监测“指的是用来允许cache在主存储器中是否进行影响cache地址的传输。如果cache探测到有这样的传输发生,它将及时更性自己从而匹配主存储器。这个在主存储器中复制数据的过程称为”写回“操作。

  因为cache比主存储器体积小,因此经常会被填充满。当此种情况发生时,所有搬到cache里面的新数据将会取代已经存在的数据。这里有多种决定数据取代的方法。例如随机取代法、先入先出取代法、最近最少使用取代法。大多数的处理器采用的都是最近最少使用取代法。这样可以是的最新的数据取代最近最少使用的数据。这种方法来源于时间位置法则。
  直接映射cache

  cache存储器可以被设置为“直接映射”或者“联合方式”。为了解释这些术语,我们以图四所示的C64X的L1Pcache为例,这些cache由512列32字节组成。每一排映射到一些固定的具有相识的存储器地址上。比如:
从0000h 到 0019h的地址经常被cache安排在第0列
从0020h 到 0039h的地址经常被cache安排在第1列
从3FE0h 到 3FFFh 的地址经常被cache安排在第511列。

  因此一旦我们需要获得地址4000h,由于cache的容量被用尽了,因此从4000h 到 4019h的地址需要从新从第0列开始。

  图五:直接映射caches
  为了保持复制的数据,每一行的L1Pcache包括:

   一位有效信号,用来指示cache的列中 是否包含的是有用的信息

  一个标记符,其值等于地址的高18位,这个是必须的因为一个指定的列可能包含着不同地址的数据,比如,第0列可以包含的是从0000h 到 0019h的数据,也可以是从4000h 到 4019h的数据。

   一个可设置的数据,这个数据等同于从第5位到第13位的地址。对于直接映射方式,这个设置的数据同这个列的值是一样的。而对于联合方式时要更加复杂,这种情况我们将在随后讨论。

  现在让我们看看当CPU访问位于0020h的地址时发生了什么。假定cache被完全无效,即意为着所有的列都没有包含有效数据。当CPU发出对地址20h的访问请求时,cache控制器开始首先在部分地址位(比如:从第5位到13位)等同于列地址的位置查询。当这个部分地址值(从第5位到13位)被设置为1时,匹配需查询的地址。控制器将继续检查第一列的标记位是否也和地址0020h 到 0039h的高18位相符合。当这些都完成时,将检查有效数据位看cache保存的是否为有效数据。如果有效数据位为0时,cache控制器记录一个不命中操作。

  这个不命中操作将使得控制器将从存储器中将此列的数据0020h-0039h读入,并将该有效数据位设置为1。同时将部分地址值保存在标记符RAM中。取得的数据将被传送到CPU中,完成访问操作。

  如果这个0020h的地址被再次访问,cache控制器将再次取得这个地址,检查它的设置符和标记符。当有效数据位为1时,控制器将记录一个命中操作,因此cache列里面的数据也将被送到CPU中,完成整个访问操作。
  联合设置方式

  联合设置方式是直接映射方式的延续。在直接映射方式中,每一个设置只包含一列。而在联合设置方式中,每一个设置包含多个列,被称为多路方式。图五中阐述了这样一个联合设置的cache,以C64x DSP's L1D为例。这是一个两路的包含64个字节总共16KBytes容量的联合设置cache。
  为了保持数据,L1Dcache的每一列包含以下:
  一个最近最少使用位用来指示哪些路最近很少被使用(这个在L1P中未被使用);
  一个脏数据位,用来指示cache列是否匹配主存储器的容量(这个在L1P中未被使用);
  一个有效数据位,用来指示cache列中包含的是否是有效数据;
  一个标记位,等价于地址的高18位;
  一个设置数据,等价于地址的5到13位。
  命中和不命中决定的方式和直接映射cache方式是一样的。不同的是此时需要两个标记位,一个标记位记录是哪一路的请求数据。如果是第0路的数据被命中,则第0路的列中的数据被访问,如果是第1路的数据被命中,则第1路的列中的数据被访问。

  如果两路均不命中的话,数据将从内存中被指派。一个最近最少使用位将决定数据如何分配类似于一个开关操作。如果被指派的第0列的最近最少使用位被设置为0,那么将把此数据分配于第一列。无论对这个cache列是读还是写的访问,都将改变这个最近最少使用标记位。例如:如果第0路的列被读取,则最近最少使用位将切换到1。由于最近最少使用位只记录不命中操作,但是它的状态每次都会更新,无论对列访问是命中还是不命中,读或者写。

  对于L1P来说,L1D是一个读分配的cache,不管新数据在内存中申请时读操作是命中或者不命中。在一个写不命中操作时,数据从写存储器传递到内存中,绕过L1Dcacee。在一个写命中操作时,数据写入cache中而不是立即写入内存。当数据被CPU写访问改变时,cache里的内容将提交给一个写回cache,随后数据将被写入内存中。

  脏数据位指示当cache里面的数据被写操作修改时,而修改后的新数据还未被写入到主存储器中。最初脏数据位将被赋值为0。一旦当CPU对某列进行写操作时,脏数据位将变为1。当此列被逐出cache时,这个数据将被写回主存储器中。当发生读不命中操作时新数据将从脏数据列中申请,这种情况才会发生。一个写回命令将传递给cache控制器从而产生一个写回操作,只是这种情况并不经常发生。
  优化cache性能

  这里有三种不命中的情况:

  必然不命中(也叫首次不命中):这种不命中发生在当数据第一次放入cache中,为了和下面两种不命中方式区分开来,它们可以被避免。

  冲突不命中:不命中发生在在该列在被重复使用之前被取代。

  容量不命中:这种方式发生在当cache容量被耗尽时,容量不命中是冲突命中的一种方式。

  对于每一种不命中方式,控制器在将数据从存储器放入cache中时都会产生延迟。为了得到更高的性能,每一列中的内容在被取代之前应该尽可能的被重复利用。重复使用某列以此来获得不同的位置能够改善空间位置的访问,而重复使用某列可以改善时间位置的访问。这就是优化cache存储
  性能的一个最基本的准则。
  例如,当cache存储器经常被访问时,cache的性能是比较高的。这种访问模式在对下一列访问之前将重复对上一列的访问。例如,下面的代码就
  有一个很高的命中率:
   而下面的代码的性能就如上一个,因为他的内存的访问有一个很大幅度的跨越,这就意味着在对下一列访问之前对上一列的访问率就降低了。
  如果某一列被从cache里驱除而又需要重新访问,这一列必须重新写入cache。因此,如何避免这种驱除就变得非常重要,确定这种不命中的原因可以帮助我们避免下一次的不命中。
  正如上面所说,容量不命中产生的原因是因为cache的容量小于主存储器。如果发生容量不命中,最简单的办法就是加大cache的容量。例如,
  C64x DSP上的L2cache可以被配置为cache和SRAM的混合体。如果有很多的容量不命中的情况,编程者可以将L2存储器更多的申请为cache。另一种
  解决办法就是减少所需要的数据量。

  如果产生冲突不命中,关键在于重新编排数据的排列方式,从而使得最近时间数据能够映射到其他路中。(对于直接映射方式,这个类似于将数据映射对应于不同的行中)改变存储器的排列方式,可以使得数据位于存储器中的不同位置,从而不会产生冲突。作为可选择的,从一个硬件设计的角度,多设置方式可以产生多列的方式。因此,存储器中映射于相同设置的两列都可以在cache中被申请,而不会发生冲突。

  转载,信息来自维库电子市场网


2.gif (30.69 KB )

2.gif

相关帖子

沙发
zhangmangui| | 2018-4-17 22:41 | 只看该作者
很全面的分享  活动

使用特权

评论回复
板凳
quickman| | 2018-4-20 22:15 | 只看该作者
处理器中的cache是存放于处理器四周的高速存储器

使用特权

评论回复
地板
jstgotodo| | 2018-4-20 22:15 | 只看该作者
cache的重要性

使用特权

评论回复
5
iamaiqiyi| | 2018-4-20 22:16 | 只看该作者
L1 L2 Cache架构有什么不同呢

使用特权

评论回复
6
dzfansman| | 2018-4-20 22:17 | 只看该作者
优化使用DSP C6000系列C64x的Cache

使用特权

评论回复
7
sanxingnote7| | 2018-4-20 22:18 | 只看该作者
如何使用DSP C6000 cache

使用特权

评论回复
8
backlugin| | 2018-4-20 22:19 | 只看该作者
cache的机制

使用特权

评论回复
9
sdCAD| | 2018-4-20 22:19 | 只看该作者
DSP/BIOS中默认设置L1P L1D为cache,L2全部为RAM。

使用特权

评论回复
10
fengm| | 2018-4-20 22:20 | 只看该作者
Cache数据与主存数据不一致

使用特权

评论回复
11
updownq| | 2018-4-20 22:20 | 只看该作者
两级cache的结构和算法

使用特权

评论回复
12
sanfuzi| | 2018-4-20 22:20 | 只看该作者
cache是带来计算时长不确定性的祸根

使用特权

评论回复
13
backlugin| | 2018-4-20 22:21 | 只看该作者
如果没有在了L1级hit,则直接使用write buffer来完成写操作。

使用特权

评论回复
14
sanxingnote7| | 2018-4-20 22:21 | 只看该作者
Cache的操作函数推荐一个。

使用特权

评论回复
15
dzfansman| | 2018-4-20 22:21 | 只看该作者
TMS320C6000 DSP Cache User’s Guide

使用特权

评论回复
16
iamaiqiyi| | 2018-4-20 22:21 | 只看该作者
cache存储器和系统中的普通的存储器做个比较。

使用特权

评论回复
17
jstgotodo| | 2018-4-20 22:21 | 只看该作者
cache的一些基本理论和基本术语

使用特权

评论回复
18
quickman| | 2018-4-20 22:21 | 只看该作者
可以用来保存运算处理时的一些共有的指令,从而加速运算的速度

使用特权

评论回复
19
fengm| | 2018-4-20 22:21 | 只看该作者
能够映射到cache中某一行的数据很多

使用特权

评论回复
20
sdCAD| | 2018-4-20 22:21 | 只看该作者
要从Cache中读取数据时要测试其有效位

使用特权

评论回复
发新帖 我要提问
您需要登录后才可以回帖 登录 | 注册

本版积分规则

697

主题

993

帖子

4

粉丝