近日,清华大学成像与智能技术实验室提出了一种集成化的元成像芯片架构(Meta-imaging sensor),为解决这一百年难题开辟了一条新路径。
区别于构建完美透镜,研究团队另辟蹊径,研制了一种超级传感器,记录成像过程而非图像本身,通过实现对非相干复杂光场的超精细感知与融合,即使经过不完美的光学透镜与复杂的成像环境,依然能够实现完美的三维光学成像。团队攻克了超精细光场感知与超精细光场融合两大核心技术,以分布式感知突破空间带宽积瓶颈,以自组织融合实现多维多尺度高分辨重建,借此能够用对光线的数字调制来替代传统光学系统中的物理模拟调制,并将其精度提升至光学衍射极限。
这一技术解决了长期以来的光学像差瓶颈,有望成为下一代通用像感器架构,而无需改变现有的光学成像系统,带来颠覆性的变化,将应用于天文观测、生物成像、医疗诊断、移动终端、工业检测、安防监控等领域。
传统光学系统主要为人眼所设计,保持着“所见即所得”的设计理念,聚焦于在光学端实现完美成像。近百年来,光学科学家与工程师不断提出新的光学设计方法,为不同成像系统定制复杂的多级镜面、非球面与自由曲面镜头,来减小像差提升成像性能。但由于加工工艺的限制与复杂环境的扰动,难以制造出完美的成像系统。例如由于大范围面形平整度的加工误差,难以制造超大口径的镜片实现超远距离高分辨率成像;地基天文望远镜,受到动态变化的大气湍流扰动,实际成像分辨率远低于光学衍射极限,限制了人类探索宇宙的能力,往往需要花费昂贵的代价发射太空望远镜绕过大气层。
为了解决这一难题,自适应光学技术应运而生,人们通过波前传感器实时感知环境像差扰动,并反馈给一面可变形的反射镜阵列,动态矫正对应的光学像差,以此保持完美的成像过程,基于此人们发现了星系中心的巨大黑洞并获得了诺贝尔奖,并广泛应用于天文学与生命科学领域。然而由于像差在空间分布非均一的特性,该技术仅能实现极小视场的高分辨成像,而难以实现大视场多区域的同时矫正,并且由于需要非常精细的复杂系统往往成本十分高昂。
|