本帖最后由 iQanalog 于 2009-12-13 02:38 编辑
楼上错误
精度通常是指准确度。指测量值与实际值的差异性。影响精度的因素很多。如分辨力,线性度等。
分辨率可以通过分辨力来理解。也不与采集电压有多少关系。8bit的分辨力为1/256,10bit时为1/1024,但实际还要通过量程转换成具体的值,不能没有量纲或单位(量纲与单位是不同的概念)。
分辨率通常用百分比来表示,而分辨力则用绝对值来表示。“5/256 =0.01953125V”指的是分辨力而不是分辨率。而这样的分辨能力仅仅是指理论能力而不是实际能力。因为实际能力还要包括非线性因素引起“干扰”。
我通常认为实际分辨力是理论分辨力的2倍(没有1.5倍之类的中间界限)。
|