示波器是硬件工程师必备武器,但是很多时候,貌似对这个高精尖的“伙伴”知之甚少。比如示波器的探头为什么有X1和X10之分呢?而且X10的挡位带宽就比X1的要大。要理解这个现象,就得从示波器的内部结构入手,示波器的输入端肯定是存在寄生电容,在频率较低的时候,这部分电容对测量结果影响不大,但是电容是有隔离直流,通过交流的能力,电容阻抗Xc=2*pi*f*C,随着信号频率越来越高,通过电容就越来越容易。一般示波器的输入电阻是1MΩ,电容是10pF.在测量1KHz时候,电容容抗就是16MΩ,然后和输入电阻 1MΩ并联。并联后的阻抗不会有多大影响。如果测量100MHz的信号,电容容抗就只要160欧姆,就会将输入1MΩ电阻短路。所以当信号频率变化很大的时候,就会造成高频测量上的误差,此时示波器基本什么也测试不到。 因此就有了低阻抗的测量发,就是将1MΩ的电阻换成50欧姆的电阻,通常高带宽的示波器都配有低输入阻抗选择,从而保证在较高频率下测量的准确性能。不过低输入阻抗也是有缺点的,那就是对电路影响很大,比如测量电路的电阻是kΩ级别,如果此时直接把50欧姆的示波器接上去,那就相当于把原来电路特性给改变,给直接干短路了。所以这个时候示波器探头就有用武之地。所以在使用示波器50欧姆输入阻抗的时候,需要配合有源探头使用。有源探头起到阻抗匹配的作用,在探头输入处保证高阻抗,不影响被测电路的工作,然后探头将信号做出放大,保证在输出处可以驱动50欧姆的示波器阻抗,相当于输出低阻抗。可以类比跟随器的作用。 如果测量是信号是方波信号,那么输入电容和导线电阻组成的RC低通滤波器,就会让输入信号滤波,造成输入信号的畸边。这也是在测试中更不希望看到的。当方波输入后,由于电容的存在,会造成示波器检测的信号电压缓慢上升延时,延时时间是RC。而输入导线的电阻会在电容充电瞬间电流最大(充电瞬间电容短路,随后缓慢电容电压抬升),之后缓慢减小到0. 下图是仿真电阻两端电压和电容电压,根据KVL定理,两者相加之和电压就是输入信号电压。 那么要消除示波器测量到的上升延迟,就可以再增加一个补偿电路,消除延时.只要满足R1*C1=R2*C2,就能保证补偿刚好到位。也就是只需要将电容的容抗比等于电阻比就可以了。就可以保证在不同频率之下电容的分压等于电阻的分压。 随后按照补偿原理,将C1和R2参数设定后,输出out测量的波形和输入in的波形一致。 说了这么多,再回到开始讨论的话题。常规的示波器探头在X10挡位就是这样的补偿结构,探头衰减阻抗是9MΩ。当然也就将原始输入信号缩小了十分之一。但是X1挡位就是没有这部分补偿,没有这个补偿后,在高频信号测量的时候X1挡位的输入电阻是1MΩ,高频信号是时候输入电容的容抗就会将输入1MΩ短路,此时无论测量什么信号,示波器都是不会测量到。这也就是为什么探头X10挡位的带宽远大于X1挡位。 由于每一个示波器的电容都不一样,在实际测量的时候都需要根据实际电路需要进行调整,一般示波器探头都有一个可调电容的旋钮,在使用之前都可以使用螺丝刀进行校准。
|
有源无源分一分