关于灵敏度和分辨率的理解有些模糊
网上查到多数解释如下:
传感器的灵敏度 灵敏度是指传感器在稳态工作情况下输出量变化△y对输入量变化△x的比值。它是输出一输入特性曲线的斜率。如果传感器的输出和输入之间显线性关系,则灵敏度S是一个常数。否则,它将随输入量的变化而变化。灵敏度的量纲是输出、输入量的量纲之比。例如,某位移传感器,在位移变化1mm时,输出电压变化为200mV,则其灵敏度应表示为200mV/mm。当传感器的输出、输入量的量纲相同时,灵敏度可理解为放大倍数。提高灵敏度,可得到较高的测量精度。但灵敏度愈高,测量范围愈窄,稳定性也往往愈差。
传感器的分辨率
分辨率是指传感器可感受到的被测量的最小变化的能力。也就是说,如果输入量从某一非零值缓慢地变化。当输入变化值未超过某一数值时,传感器的输出不会发生变化,即传感器对此输入量的变化是分辨不出来的。只有当输入量的变化超过分辨率时,其输出才会发生变化。通常传感器在满量程范围内各点的分辨率并不相同,因此常用满量程中能使输出量产生阶跃变化的输入量中的最大变化值作为衡量分辨率的指标。上述指标若用满量程的百分比表示,则称为分辨率。分辨率与传感器的稳定性有负相相关性。
我想不通的是:举例:一个磁场传感器在外界磁场缓慢变化,当增加了10高斯的时候,传感器输出才会有变化,变化最小阶跃了1mV。那是不是说它的分辨率是10高斯呢,而套用灵敏度的公式是不是1mV÷10G=0.1mV/G呢? 那分辨率和灵敏度都从同一个情况推出来了,那不是同一个本制的不同说法喽?(我知道这样说肯定是错误的,为啥呢?)
如果传感器给出了指标灵敏度是a,那我可不可以理解:传感器输出(假设是数字输出)示值的最末一位变化了1,被测量变化△x,那1/△x=a。
|