我们一般使用的相机、夜视仪、望远镜等都属于野外成像。
他们只能看到视线内的事物,而听不到视线外的事物。
你可能会想,如果我在视线内放一面全身镜,我能听到视线外的东西吗?
没错,潜望镜就是这么做的。
非视场成像的原理有点像潜望镜。
然而,它不是依靠全身镜来反射物体的光,而是依靠较粗糙的表面,例如墙壁,来反射物体的光。
然而,墙壁是如此粗糙,即使一束平行光照射在墙壁上,也会向各个方向散射。
因此,如果你让物体将光线反射到墙壁上,再让墙壁将光线反射到单反上,结果一定是白色的,连神都看不到你拍的东西。
如何才能做到这一点? 有一种方法。
大多数非场成像技术不会被动地等待光线从墙壁上的物体反射,而是通过发射激光脉冲束主动攻击墙壁。
该激光脉冲将穿过墙壁并照射到墙壁后面的物体上。 之后,物体感应到将一小部分脉冲信号反射回来,再次穿过墙壁后,被探测器接收到。
也就是说,发射的激光脉冲要经过3次漫反射才能最终返回探测器。
最后,计算机分析探测器接收到的脉冲延迟了多长时间,以及形状如何变化,从而推断出隐藏在墙壁前面的物体的形状。
从这个意义上来说,无场成像可以说是一种可以转动视线的技术。
如果仔细想一想,你可能会发现,距离越远,激光衰减就越大,探测偏差就越大。
这种非场成像技术最多只能检测几米外的物体。
从这一点来看,即使这些技术真正投入使用,也最多是应用于近距离场景,比如机器人视觉、医学和科研等。
就像动漫开头在军事、反恐方面的远距离应用一样,非野外成像一时半会做不到。
那么,真的没有其他办法了吗?
中国科学院潘建伟、窦贤康、徐飞虎研究团队提出了一种新方法。
他们借助自己的硬件和软件,成功将非现场成像的应用距离延长到了1.4公里。
2021年3月,他们的研究论文将发表在《美国国家科学院院刊》(PNAS)上。
你可能会想,不就是实验的距离变远了吗?
有哪些困难?
把仪器的精度设置得更高一些,更仔细地分析实验数据不就可以了吗?
怎么可能这么简单!
这不仅仅是几公里和几米的区别,而是室内和室内的区别。
你知道,我们正在做的是精密光学实验。
科学家们做这样的实验时,希望能把实验室变成一个没有光的暗室。
只有尽可能避免一切干扰,光学实验才能称得上足够“精密”。
幸运的是,研究团队不仅不能在暗室里进行实验,还得把实验移到室外,在明亮的阳光下进行实验。
这个时候,别说转动视线平面镜成像规律图表,就连认清视线内的物体都不容易。
那么,在如此强烈的干扰下,研究团队又是如何转眼的呢? 他们主要有六点。
尽管经过了如此精心的策划,近红外激光的脉冲在经过了长途飞行、多次干扰、三次漫反射之后,回到了探测器,看来后妈还是没有认出来。
尽管在每个扫描点,近红外激光都会发射 460 亿个光子。
但经过 3 次漫反射后,只有 674 个光子返回探测器。
因此,研究团队还有最后一件事要做,那就是:
研究团队做出了如此多的创新和努力,实际效果如何?
看,这是探测器检测到的一组信号。
那么计算机程序认为这是什么?
那么它们到底是什么?
原本是一个标准的人体模型。
再看看这个结果:
什么也看不见平面镜成像规律图表,可以吗? 我们来看看计算机的结果。
那么它们到底是什么?
原来是字母H。
你猜怎么了?
让计算机为您恢复(图像重建)。
原来是它!
从这一点来看,本轮远距离非现场成像的疗效还是相当不错的。
据不可靠消息称,研究团队将在各种实际场景中进一步测试和优化这些技术,力争尽快投入实际应用。 此外,在无人驾驶、灾害搜救等民用领域,非现场成像也具有广阔的应用前景。 让我们拭目以待吧~
结尾