CN114595636A - 一种单目快照式深度偏振四维成像方法和系统 - Google Patents
一种单目快照式深度偏振四维成像方法和系统 Download PDFInfo
- Publication number
- CN114595636A CN114595636A CN202210241266.XA CN202210241266A CN114595636A CN 114595636 A CN114595636 A CN 114595636A CN 202210241266 A CN202210241266 A CN 202210241266A CN 114595636 A CN114595636 A CN 114595636A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- polarized light
- point spread
- spread function
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 90
- 230000010287 polarization Effects 0.000 title claims abstract description 81
- 238000000034 method Methods 0.000 claims abstract description 43
- 210000001747 pupil Anatomy 0.000 claims abstract description 23
- 238000013461 design Methods 0.000 claims abstract description 22
- 238000009826 distribution Methods 0.000 claims abstract description 18
- 238000004088 simulation Methods 0.000 claims abstract description 7
- 238000013528 artificial neural network Methods 0.000 claims description 36
- 230000003287 optical effect Effects 0.000 claims description 36
- 230000005540 biological transmission Effects 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 19
- 238000005457 optimization Methods 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 14
- 238000013519 translation Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 9
- 230000001105 regulatory effect Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000001228 spectrum Methods 0.000 claims description 6
- 230000001276 controlling effect Effects 0.000 claims description 5
- 239000000463 material Substances 0.000 claims description 5
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N silicon dioxide Inorganic materials O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 claims description 5
- 230000014509 gene expression Effects 0.000 claims description 3
- 230000000644 propagated effect Effects 0.000 claims description 3
- 238000005265 energy consumption Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 70
- 238000002834 transmittance Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 239000000758 substrate Substances 0.000 description 4
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 229910052710 silicon Inorganic materials 0.000 description 3
- 239000010703 silicon Substances 0.000 description 3
- GWEVSGVZZGPLCZ-UHFFFAOYSA-N Titan oxide Chemical compound O=[Ti]=O GWEVSGVZZGPLCZ-UHFFFAOYSA-N 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000003989 dielectric material Substances 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- JBRZTFJDHDCESZ-UHFFFAOYSA-N AsGa Chemical compound [As]#[Ga] JBRZTFJDHDCESZ-UHFFFAOYSA-N 0.000 description 1
- 229910002601 GaN Inorganic materials 0.000 description 1
- 229910005540 GaP Inorganic materials 0.000 description 1
- 229910001218 Gallium arsenide Inorganic materials 0.000 description 1
- JMASRVWKEDWRBT-UHFFFAOYSA-N Gallium nitride Chemical compound [Ga]#N JMASRVWKEDWRBT-UHFFFAOYSA-N 0.000 description 1
- 229910052581 Si3N4 Inorganic materials 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- HZXMRANICFIONG-UHFFFAOYSA-N gallium phosphide Chemical compound [Ga]#P HZXMRANICFIONG-UHFFFAOYSA-N 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000010453 quartz Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- HQVNEWCFYHHQES-UHFFFAOYSA-N silicon nitride Chemical compound N12[Si]34N5[Si]62N3[Si]51N64 HQVNEWCFYHHQES-UHFFFAOYSA-N 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 239000004408 titanium dioxide Substances 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J4/00—Measuring polarisation of light
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/28—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/20—Linear translation of whole images or parts thereof, e.g. panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/957—Light-field or plenoptic cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/10—Numerical modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Computational Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Signal Processing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Optics & Photonics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Evolutionary Biology (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Medical Informatics (AREA)
- Polarising Elements (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本公开实施例提供的单目快照式深度偏振四维成像方法和系统,包括:构建成像系统的数值仿真模型,通过入瞳平面的相位分布,设计与深度和偏振高度相关的点扩展函数并设计实现所述相位分布的镜头;根据设计的结果搭建成像系统,对该成像系统的点扩展函数进行标定,获取像场的畸变参数;利用搭建的成像系统对目标场景进行单次拍摄,得到含有目标场景四维光场信息的单幅编码图像,根据像场畸变参数对该单幅编码图像进行矫正;根据标定后的点扩展函数将目标场景的四维光场信息从单幅编码图像中解码,得到目标场景的强度图、偏振对比图和深度图。本公开实施例在有效控制成本、体积、重量和能耗的前提下,能够获取高精度的四维光场信息。
Description
技术领域
本公开可被应用于光学成像和机器视觉等领域,具体涉及一种可对二维强度、深度、偏振等四维光场实现单目快照式成像的方法和系统。
背景技术
获取场景的多维光场信息,包括探测场景的二维光强、深度、偏振、光谱信息。传统相机成像时仅获取目标场景的二维光强信息。深度信息即场景内各点到相机的距离,其在机器人、自动驾驶、智能制造、人脸识别与检测、增强现实等领域有着广泛的应用。光场的偏振和光谱信息可以揭示场景更加丰富的特征,对于目标识别与追踪、特征分析、图像增强等任务有着重要的作用。
传统多维视觉感知系统通常体积、重量与功耗庞大,并且一般会牺牲时间和空间分辨率,难以满足众多实际应用需求。例如深度信息的获取往往需要主动激光照明或采用多个镜头;偏振成像往往需要通过分振幅、分焦面或时域复用的方式;光谱探测需要大体积色散分光元件、空域复用的滤波阵列或时域复用的扫描。同时获取二维光强、深度、偏振、光谱在内的多维光场信息则更具挑战,需要进一步增加系统体积与复杂度。
近年来,超构表面(Metasurface)的提出引起了广泛关注。通过亚波长尺度的结构设计,超构表面可以对电磁波的振幅、相位和偏振等特性进行灵活地调控。将超构表面集成于成像系统中,为通过集成化、微型化的系统获取场景的深度、偏振、光谱信息提供了新的可能性。但是已实验演示的利用超构表面探测光场信息的工作仅能获取二维光强外的一维信息,且仍需要主动激光照明,时、空域复用等。
发明内容
本公开旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本公开第一方面实施例提出一种可实现集成化、微型化对四维光场信息实时、高精度获取的单目快照式深度偏振四维成像方法,包括:
步骤S1、构建成像系统的数值仿真模型,通过优化成像系统的入瞳平面的相位分布,设计与深度和偏振高度相关的点扩展函数并设计实现所述相位分布的镜头参数;
步骤S2、根据步骤S1的设计结果搭建成像系统,对该成像系统的点扩展函数进行标定;获取像场的畸变参数;
步骤S3、利用步骤S2搭建的成像系统对目标场景进行单次拍摄,得到含有目标场景四维光场信息的单幅编码图像,根据步骤S2中获取的像场畸变参数对该单幅编码图像进行矫正;
步骤S4、根据步骤S2标定后的点扩展函数将目标场景的四维光场信息从单幅编码图像中解码,得到目标场景的强度图、偏振对比图和深度图。
本公开第一方面实施例提供的单目快照式深度偏振四维成像方法,具有以下特点及有益效果:
成像系统的在二维光电传感器上的输出图像g(x,y)是包含二维光强投影、场景深度、偏振等多维信息的系统输入光场f(x,y,z,p)与成像系统点扩展函数PSF(x,y,z,p)的卷积。传统成像方法仅考虑成像系统对二维光强的脉冲响应,即PSF(x,y),从而丢失其它维度的信息。本公开实施例体提供的成像方法通过对成像系统对多维光场的脉冲响应PSF(x,y,z,p)以及图像解码方法进行联合设计,以实现无需激光照明的单目快照式多维光场信息获取。本公开实施例提供的成像方法具有极低的复杂度,便于成像系统的集成化与微型化,以远小于传统方法所需的成本、体积、重量、能耗等,能够获取高精度的四维光场信息。
在一些实施例中,步骤S1中,所述镜头选用超构表面镜头,所述超构表面镜头包括以阵列形式布设的若干光学天线,所述步骤S1包括以下步骤:
步骤S101、根据在目标波段的损耗和折射率选取所述超构表面镜头的材料和所述光学天线的几何结构;
步骤S102、通过仿真计算确定实现独立调控一对正交线偏振光或分别独立调控多对正交偏振光的透射相位的光学天线的可选几何参数;
步骤S103、选取物理模型,初步设计与深度和偏振高度相关的点扩展函数所需的透射相位;
步骤S104、以最大化单螺旋点扩展函数的焦点光能量为目标对初步设计的透射相位进行迭代优化;
步骤S105、根据步骤S104得到的透射相位设计,并结合步骤S102确定的光学天线的几何参数中选取超构表面镜头在(x,y)坐标处的光学天线的几何参数。
在一些实施例中,步骤S103中,所述点扩展函数采用单螺旋点扩展函数;一对所述正交线偏振光为X偏振光和Y偏振光;多对所述正交偏振光包括X偏振光和Y偏振光、X偏振光和Y偏振光偏振方向旋转45°的一对正交线偏振光,X偏振光和Y偏振光、X偏振光和Y偏振光偏振方向旋转45°的一对左旋圆偏振光,以及X偏振光和Y偏振光、X偏振光和Y偏振光偏振方向旋转45°的一对右旋圆偏振光中的任意两对或三对偏振光。
在一些实施例中,步骤S103中,将超构表面镜头的透射相位初步设计为产生单螺旋点扩展函数的附加相位项加上标准透镜聚焦项与偏振分光项,其中选取一对正交线偏振光时:
设对X偏振光的标准透镜聚焦项与偏振分光项为ψxf,设对Y偏振光的标准透镜聚焦项与偏振分光项为ψyf,表达式分别为:
式中,f为超构表面镜头的焦距,θ为偏振分光的离轴角,x,y为入瞳平面沿x轴和y轴的二维坐标;
在一些实施例中,步骤S104包括:
从相位分布的初步设计置于入瞳平面开始,以角谱法计算若干位于不同深度的轴上点光源在成像平面上对应的但螺旋点扩展函数的复振幅,将该复振幅与优化函数相乘,所述优化函数为满足二维高斯分布的复振幅,以该复振幅的振幅峰值为中心,用于迭代地增加限制在单螺旋的点扩展函数焦点主瓣内的光能的比例,将优化后的点扩展函数的复振幅反向传播到入瞳平面,并将对应不同深度点光源的复振幅加权平均,权重之和为1,加权平均后的入瞳平面复振幅中的振幅随后被设置为1,相位保留作为下一次迭代的输入;不断重复迭代过程,直至点扩展函数焦点主瓣内的光能的比例趋于稳定,迭代优化结束,得到透射相位设计。
在一些实施例中,步骤S4包括:
步骤S411、从步骤S3拍摄的单幅编码图像中截取两个几何像点位置相对应的区域,得到两个尺寸相同的编码图块;
步骤S412、在两个所述编码图块中标记目标物体轮廓;
步骤S413、对每个标记的目标物体轮廓在两个编码图块中进行模板匹配,找到最佳匹配位置;
步骤S414、由各目标物体的最佳匹配位置得到相应目标物体的平移矢量,平移矢量的方位角即点扩展函数的方位角;
步骤S415、根据步骤S2中所标定的点扩展函数与深度的对应关系及点扩展函数的方位角得到各目标物体的深度,再根据步骤S412得到的各目标物体轮廓,从而得到目标物体的深度图;
步骤S416、根据步骤S414得到的平移矢量,将两个编码图块中的各物体平移回几何像点的位置,得到解码的两幅对应正交偏振分量的强度图;
步骤S417、将步骤S416所得两幅强度图相除,得到偏振对比图。
在一些实施例中,步骤S4包括:
步骤S421、根据步骤S1所设计的点扩展函数通过数值计算从具有准确四维信息的图像生成编码图像,作为训练集;
步骤S422、构建神经网络,训练所述神经网络从步骤S421中生成的编码图像获取四维光场信息,将所述神经网络获取的四维光场信息与准确的四维光场信息之差值作为损失函数,对神经网络的参数进行训练,得到训练完毕的神经网络;
步骤S423、使用过程中,利用训练完毕的神经网络直接从拍摄的编码图像中获取四维光场信息。
在一些实施例中,步骤S4包括:
步骤S421、以具有准确四维光场信息的图像构建训练集;
步骤S422、构建神经网络,将步骤S421的图像输入所述神经网络,获取准确的四维光场信息,神经网络根据上次迭代优化得到的透射相位模拟生成编码图像,并由该编码图像得到四维光场信息,以该四维光场信息与准确的四维光场信息之差值作为损失函数,通过反向传播同时更新神经网络参数与透射相位的分布,得到训练完毕的神经网络;
步骤S423、使用过程中,利用训练完毕的神经网络直接从拍摄的编码图像中获取四维光场信息。
本公开第二方面实施例提供的单目快照式深度偏振四维成像系统,包括:超构表面镜头、光电传感器阵列和图像处理单元,所述超构表面镜头的参数按照本公开第一方面实施例中任一项所述的单目快照式深度偏振四维成像方法中的步骤S1得到,所述图像处理单元配置有用于执行根据本公开第一方面实施例中任一项所述的单目快照式深度偏振四维成像方法中步骤S4的指令。
附图说明
附图用来配合具体实施方式对本公开实施例作进一步的理解,构成了说明书的一部分,但并不构成对本公开实施例的限制。
图1是本公开第一方面实施例提供的单目快照式深度偏振四维成像方法的流程图。
图2是本公开第一方面实施例提供的成像方法中设计用于四维成像的点扩展函数及相应镜头参数的方法流程图。
图3是本公开第一方面实施例提供的一种用于四维成像的超构表面镜头的侧视图。
图4是本公开第一方面实施例提供的一种用于四维成像的超构表面镜头的俯视图。
图5(a)~图5(d)是本公开第一方面实施例提供的图3所示超构表面镜头中,二维光学天线对正交线偏振入射光的相位和透射率调制量随光学天线长宽的变化关系;其中图5(a)、图5(b)分别为各天线对X线偏振入射光相位的调制量和透射率与相应天线的长度、宽度的关系,图5(c)、图5(d)分别为各天线对Y线偏振入射光相位的调制量和透射率与相应天线的长度、宽度的关系。
图6(a)、图6(b)分别是本公开第一方面实施例提供的一种用于多维成像的超构表面镜头对X和Y线偏振入射光各自的透射相位。
图7是本公开第一方面实施例提供的成像方法得到的对于位于不同物方深度的点光源,对X和Y线偏振入射光各自的点扩展函数。
图8是本公开第一方面实施例提供的成像方法中步骤S4的解码过程的流程图。
图9是本公开第一方面实施例提供的成像方法中步骤S4的另一种解码过程的流程图。
图10是本公开第二方面实施例提供的四维成像系统及其光路示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细描述。应当理解,此处所描述的具体实施例仅仅用于解释本申请,并不用于限定本申请。
相反,本申请涵盖任何由权利要求定义的在本申请精髓和范围上做的替代、修改、等效方法以及方案。进一步,为了使公众对本申请有更好的了解,在下文对本申请的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本申请。
参见图1,本公开第一方面实施例提供的一种单目快照式深度偏振四维成像方法,包括以下步骤:
步骤S1、构建成像系统的数值仿真模型,通过优化成像系统的入瞳平面的相位分布,设计与深度和偏振高度相关的点扩展函数并设计实现所述相位分布的镜头参数;
步骤S2、根据步骤S1的设计结果搭建成像系统,对该成像系统的点扩展函数进行标定;获取像场的畸变参数;
步骤S3、利用步骤S2搭建的成像系统对目标场景进行单次拍摄,得到含有目标场景四维光场信息的单幅编码图像,并根据步骤S2中获取的像场畸变参数对该单幅编码图像进行矫正;
步骤S4、根据步骤S2标定后的点扩展函数将目标场景的四维光场信息从单幅编码图像中解码,得到对应两正交偏振的强度图、偏振对比图和深度图。
在一些实施例中,对于步骤S1,任意与深度和偏振高度相关的点扩展函数,均可以实现深度和偏振信息的高精度获取,这一相关性的高低可以通过费舍尔信息量定量衡量,可通过物理模型和包括深度学习在内的优化算法进行设计。
在一些实施例中,针对基于能独立调控一对正交线偏振光透射相位的超构表面镜头的成像系统,设计并实现与深度和偏振高度相关的点扩展函数。此外,通过对该超构表面镜头进一步设计可以达到独立调控多对正交偏振态,以实现全斯托克斯偏振成像的目的。
在一些实施例中,参见图2,步骤S1包括以下步骤:
步骤S101、根据在目标波段的损耗和折射率等为超构表面镜头选取合适的材料,选取合适的光学天线的几何结构(此处几何结构具体指光学天线选用的截面形状,如圆形、多边形等)以实现一对正交偏振光透射相位的独立调控。在一个实施例中,本步骤的具体实现过程如下:
图3和图4展示了一个实施例中超构表面镜头的主视图和俯视图。该超构表面镜头由衬底202和以二维阵列形式布设于衬底202表面的若干光学天线201组成,各光学天线201的高度均在亚波长范围内,且均由高折射率(折射率>2)的介质材料构成,包含硅、氮化硅、二氧化钛、磷化镓、氮化镓或砷化镓等。本实施例的超构表面镜头为透射式,衬底202可以选择熔融玻璃或石英等透明(透射率>80%)基底,各光学天线采用硅制成;
分别以平行于光学天线阵列行和列的方向作为x轴和y轴,并以右手定则建立坐标系xyz,各光学天线沿xy平面的横截面形状可以为矩形、椭圆形或其它任意具有C2对称性的形状(本实施例采用矩形)。光学天线阵列中的各光学天线在高度固定的情况下,可以通过设计不同的长和宽实现独立调控正交线偏振光的透射相位。
步骤S102、通过仿真计算确定一组实现独立调控正交线偏振光的透射相位的光学天线的几何参数(此处的几何参数具体指在步骤S101选定的光学天线的几何结构的基础之上确定的几何结构的具体尺寸)。在一个实施例中,本步骤的具体实现过程如下:
根据工作波长λ,利用时域有限差分或严格耦合波分析等方法,计算单个光学天线在不同高度、中心距、宽度和长度的情况下,对一对正交线偏振入射光(本实施例为X偏振光和Y偏振光)的相位和透过率的调制情况。本实施例中,确定工作波长为800纳米,固定硅柱天线的高度为600纳米,中心距为400纳米,确定光学天线的长度、宽度均分别为100~340纳米。如图5所示,通过计算得到的单个光学天线对X线偏振光相位的调制量和透射率与该光学天线的长度L和宽度W的关系,分别如图5(a)和5(b)所示;单个光学天线对Y线偏振光相位的调制量和透射率与该光学天线的长度L和宽度W的关系,分别如图5(c)和5(d)所示,相位调制范围可以包含0~2π内的所有取值,且透过率接近于1。多阶(可为6~10阶)线性相位划分[0,2π]范围,本实施例选取8阶线性相位划分[0,2π]范围为0、45、90、135、180、225、270、315度。则根据X偏振光对应8阶透射相位值及Y偏振光对应8阶透射相位值,选取满足相应透射相位值,且透射率接近1的64组纳米天线的几何参数。则得到所需的能在透射率接近1的情况下地独立任意调控正交线偏振光的透射相位的纳米天线几何参数。此外,通过旋转光学天线,可以实现不同正交偏振分量的独立调控,将数种不同正交偏振分量的独立调控的光学天线进行空间复用,则可以实现全斯托克斯偏振成像。
步骤S103、选取合适的物理模型,初步设计与深度和偏振高度相关的点扩展函数所需的透射相位。
在一个本实施例中,将正交的偏振分量分开于成像平面上不同区域以一对共轭单螺旋点扩展函数聚焦,以形成完全解耦合的两幅偏振图像,且不牺牲分辨率。单螺旋点扩展函数具有随物点深度变化而围绕几何像点旋转的焦点,且在相当大的景深范围内保持形状的稳定,将两幅偏振图像配准可以获得旋转角度从而获取深度信息。单螺旋点扩展函数具有在深度维度大于标准透镜点扩展函数两个数量级的费舍尔信息量,以及更大的景深,从而保证了深度信息的高精度大景深获取。以这种点扩展函数所成图像可以直接获取具有远大于标准透镜的景深的二维光强信息与偏振信息,不需要解卷积等耗时且影响图像保真度的处理。本实施例中,步骤S103的具体实现过程如下:
将超构表面镜头的透射相位初步设计为产生单螺旋点扩展函数的附加相位项加上标准透镜聚焦项与偏振分光项,其中:
设对X偏振光的标准透镜聚焦项与偏振分光项为ψxf,设对Y偏振光的标准透镜聚焦项与偏振分光项为ψyf,表达式分别为:
式中,f=20mm为镜头焦距,θ=8度为偏振分光的离轴角,x,y为入瞳平面沿x轴和y轴的二维坐标;
设对X偏振光的产生单螺旋点扩展函数的附加相位项为设对Y偏振光的产生单螺旋点扩展函数的附加相位项为均通过菲涅耳区方法设计得到。菲涅耳区方法在成像系统的入瞳平面中排列了携带螺旋相位分布的环带,并向外环增加拓扑量子数,这种方法可以产生的大景深且紧凑的旋转点扩展函数。和的表达式分别为:
式中,u为入瞳平面的归一化径向坐标,为入瞳平面的方位角,[L,ε]是可调的设计参数,L用于调节点扩展函数随深度的旋转速率,ε用于调节点扩展函数紧凑程度与形状不变性之间的取舍,本实施例取[L,ε]=[6,0.5]。本实施例中,对Y偏振光的附加透射相位项通过将X偏振光的附加透射相位项旋转180度得到。
步骤S104、以最大化单螺旋点扩展函数的焦点光能量,减弱旁瓣影响作为目标,对步骤S103中初步设计的透射相位进行迭代优化,以提高点扩展函数的质量。在一个实施例中,本步骤的具体实现过程如下:
从相位分布的初步设计置于入瞳平面开始,以角谱法计算9个位于不同深度的轴上点光源在成像平面上对应的点扩展函数的复振幅。然后将该复振幅与优化函数相乘,优化函数是一个二维高斯分布的复振幅,以该复振幅的振幅峰值为中心,用于迭代地增加限制在单螺旋的点扩展函数焦点主瓣内的光能的比例。优化后的点扩展函数复振幅随后反向传播到入瞳平面,并将对应不同深度点光源的复振幅加权平均,权重之和为1。加权平均后的入瞳平面复振幅中的振幅随后被设置为1,相位保留作为下一次迭代的输入。不断重复迭代过程,直至点扩展函数焦点主瓣内的光能的比例趋于稳定,迭代优化结束,得到透射相位设计。
在本实施例中,经过10次迭代,得到优化的超构表面镜头对一对正交线偏振光的透射相位的设计如图6(a)和图6(b)所示,两正交线偏振各自对应的点扩展函数如图7所示,其中601为点扩展函数的旋转方向,602为几何像点的位置。
步骤S105、根据步骤S104得到的透射相位设计,并结合S102确定的光学天线的几何参数中选取超构表面镜头(x,y)坐标处的光学天线的几何参数。
在一些实施例中,步骤S2具体包括以下步骤:
根据步骤S1设计的超构表面镜头参数并利用光电传感器搭建实际的成像系统,测量该成像系统对位于不同深度和具有不同偏振态的点光源的实际点扩展函数。另一方面利用相应的方法,例如张正友标定法获取成像系统的畸变参数。
在一些实施例中,步骤S3具体包括以下步骤:
利用步骤S2搭建的成像系统对目标场景进行单次拍摄,即得到被点扩展函数编码目标场景四维信息的图像,记为单幅编码图像。利用步骤S2中获取的畸变参数对该单幅编码图像进行矫正。
在一些实施例中,参见图8,步骤S4是根据点扩展函数设计时提供的明确的与深度和偏振信息的对应规律,利用不需要深度学习的图像处理方法直接获取目标场景的四维光场信息,具体包括以下步骤:
步骤S411、从步骤S3拍摄的单幅编码图像中截取两个几何像点位置相对应的区域,得到两个尺寸相同的编码图块;
步骤S412、使用图像分割算法在两个编码图块中标记目标物体轮廓,可选地,首先利用Canny边缘检测方法进行边缘检测,然后使用连通区域检测算法提取连通区域,并剔除过小区域,得到编码图块中目标物体的轮廓。
步骤S413、对每个标记的目标物体轮廓在两个编码图块中进行模板匹配,找到最佳匹配位置。其中,设每个目标物体大致位于均一的深度,故其被一对共轭单螺旋点扩展函数所成的两个编码像具有平移对应关系,可以利用模板匹配找到该对应关系。
步骤S414、由各目标物体的最佳匹配位置得到相应目标物体的平移矢量,平移矢量的方位角即单螺旋点扩展函数的方位角。
步骤S415、根据步骤S2中所标定的点扩展函数与深度的对应关系及单螺旋点扩展函数的方位角得到各目标物体的深度,再根据步骤S412得到的各目标物体轮廓,从而得到目标物体的深度图。
步骤S416、根据步骤S414得到的平移矢量,可将两个编码图块中的各物体平移回几何像点的位置,得到解码的两幅对应正交偏振分量的强度图。
步骤S417、将步骤S416所得两幅强度图相除,得到偏振对比图,其可用于物体识别与特征分析等。
在另一些实施例中,参见图9,步骤S4是基于深度学习的方法获取目标场景的四维光场信息,该基于深度学习的方法指利用训练集训练一个从编码图像获取多维光场信息的神经网络,再利用其从实际图像中获取多维光场信息。基于深度学习的方法还可以对神经网络参数与点扩展函数设计参数进行联合优化。步骤S4具体包括以下步骤:
步骤S421、根据步骤S1所设计的点扩展函数通过数值计算从具有准确四维信息的图像生成编码图像,作为训练集。
步骤S422、选取合适的卷积神经网络,例如U-net,训练其从步骤S421中生成的编码图像获取四维光场信息,将神经网络获取的四维光场信息与准确的四维光场信息之差值作为损失函数,对神经网络的参数进行训练。或者将步骤S421模拟生成编码图像的过程嵌入到训练循环之中,即在训练中直接以具有准确四维光场信息的图像作为神经网络的输入,由上次迭代得到的透射相位(第一次迭代为步骤S104所得透射相位)模拟生成编码图像,再经过神经网络得到四维光场信息,仍然以神经网络得到的四维光场信息与准确的四维光场信息之差值作为损失函数,通过反向传播同时更新神经网络参数与点扩展函数设计即透射相位的分布,从而进行联合优化。
步骤S423、可选地,由于步骤S421中模拟生成编码图像的过程与实际成像必然存在差异,故此处利用一定量实际拍摄图像对模拟成像所训练的神经网络进行进一步适应性训练以优化神经网络参数。
步骤S424、使用过程中,利用训练好的神经网络直接从拍摄的编码图像中获取四维光场信息。
基于深度学习的方法可与更为抽象的点扩展函数与深度和偏振信息的对应规律相配套,且可以应对更为复杂的场景,但是其表现受限于训练集。本公开实施例提供的如图8和图9所示的两种方法均不需要先验信息且具有较高的处理速度。
本公开第二方面实施例提供的单目快照式深度偏振四维成像系统,参见图10,包括:超构表面镜头2、光电传感器阵列3以及图像处理单元4,该四维成像系统用于对目标场景1进行探测,所获取四维光场信息5。其中,超过表面镜头2的参数按照本公开第一方面实施例提供的单目快照式深度偏振四维成像方法中步骤S1设计得到,图像处理单元4配置有用于执行根据本公开第一方面实施例提供的单目快照式深度偏振四维成像方法中步骤S4的指令。
参见图10,本公开第二方面实施例提供的单目快照式深度偏振四维成像系统的工作过程为:
当目标场景1为位于某一深度的点光源时,超构表面镜头2将正交线偏振态的入射光离轴聚焦于光电传感器阵列3平面上的不同位置,形成如图7所示的一对单螺旋点扩展函数;一般情形下,超构表面镜头2将正交线偏振态的入射光离轴聚焦于光电传感器阵列3上的不同区域,形成两幅互不重叠的图像。
该成像系统对目标场景1进行拍摄时,光电传感器阵列3进行单次曝光即得到编码了目标四维场景信息的编码图像。该编码图像经过图像处理单元4,该图像处理单元可为计算机、手机芯片、现场可编程门阵列等,通过运行步骤S4所对应的指令,即得到目标场景的四维光场信息5。
综上所述,本公开实施例利用超构表面对光场多维参量的灵活调控能力,将目标物体的多维光场信息通过超构表面编码在成像平面上,结合图像获取算法从单幅编码图像中获取多维光场信息。成像系统的在二维光电传感器上的输出图像g(x,y)是包含二维光强投影、场景深度、偏振等多维信息的系统输入光场f(x,y,z,p)与成像系统点扩展函数PSF(x,y,z,p)的卷积。传统成像方法仅考虑成像系统对二维光强的脉冲响应,即PSF(x,y),从而丢失其它维度的信息。本公开实施例体提供的成像方法通过对成像系统对多维光场的脉冲响应PSF(x,y,z,p)以及图像解码方法进行联合设计,以实现无需激光照明的单目快照式多维光场信息获取。本公开实施例提供的成像方法具有极低的复杂度,便于成像系统的集成化与微型化,以远小于传统方法所需的成本、体积、重量、能耗等,能够获取高精度的四维光场信息。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
尽管已经示出和描述了本公开的实施例,本领域的普通技术人员可以理解:在不脱离本公开的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本公开的范围由权利要求及其等同物限定。
Claims (9)
1.一种单目快照式深度偏振四维成像方法,其特征在于,包括:
步骤S1、构建成像系统的数值仿真模型,通过优化成像系统的入瞳平面的相位分布,设计与深度和偏振高度相关的点扩展函数并设计实现所述相位分布的镜头参数;
步骤S2、根据步骤S1的设计结果搭建成像系统,对该成像系统的点扩展函数进行标定;获取像场的畸变参数;
步骤S3、利用步骤S2搭建的成像系统对目标场景进行单次拍摄,得到含有目标场景四维光场信息的单幅编码图像,根据步骤S2中获取的像场畸变参数对该单幅编码图像进行矫正;
步骤S4、根据步骤S2标定后的点扩展函数将目标场景的四维光场信息从单幅编码图像中解码,得到目标场景的强度图、偏振对比图和深度图。
2.根据权利要求1所述的单目快照式深度偏振四维成像方法,其特征在于,步骤S1中,所述镜头选用超构表面镜头,所述超构表面镜头包括以阵列形式布设的若干光学天线,所述步骤S1包括以下步骤:
步骤S101、根据在目标波段的损耗和折射率选取所述超构表面镜头的材料和所述光学天线的几何结构;
步骤S102、通过仿真计算确定实现独立调控一对正交线偏振光或分别独立调控多对正交偏振光的透射相位的光学天线的可选几何参数;
步骤S103、选取物理模型,初步设计与深度和偏振高度相关的点扩展函数所需的透射相位;
步骤S104、以最大化单螺旋点扩展函数的焦点光能量为目标对初步设计的透射相位进行迭代优化;
步骤S105、根据步骤S104得到的透射相位设计,并结合步骤S102确定的光学天线的几何参数中选取超构表面镜头在(x,y)坐标处的光学天线的几何参数。
3.根据权利要求2所述的单目快照式深度偏振四维成像方法,其特征在于,步骤S103中,所述点扩展函数采用单螺旋点扩展函数;一对所述正交线偏振光为X偏振光和Y偏振光;多对所述正交偏振光包括X偏振光和Y偏振光、X偏振光和Y偏振光偏振方向旋转45°的一对正交线偏振光,X偏振光和Y偏振光、X偏振光和Y偏振光偏振方向旋转45°的一对左旋圆偏振光,以及X偏振光和Y偏振光、X偏振光和Y偏振光偏振方向旋转45°的一对右旋圆偏振光中的任意两对或三对偏振光。
4.根据权利要求3所述的单目快照式深度偏振四维成像方法,其特征在于,步骤S103中,将超构表面镜头的透射相位初步设计为产生单螺旋点扩展函数的附加相位项加上标准透镜聚焦项与偏振分光项,其中选取一对正交线偏振光时:
设对X偏振光的标准透镜聚焦项与偏振分光项为ψxf,设对Y偏振光的标准透镜聚焦项与偏振分光项为ψyf,表达式分别为:
式中,f为超构表面镜头的焦距,θ为偏振分光的离轴角,x,y为入瞳平面沿x轴和y轴的二维坐标;
5.根据权利要求3所述的单目快照式深度偏振四维成像方法,其特征在于,步骤S104包括:
从相位分布的初步设计置于入瞳平面开始,以角谱法计算若干位于不同深度的轴上点光源在成像平面上对应的但螺旋点扩展函数的复振幅,将该复振幅与优化函数相乘,所述优化函数为满足二维高斯分布的复振幅,以该复振幅的振幅峰值为中心,用于迭代地增加限制在单螺旋的点扩展函数焦点主瓣内的光能的比例,将优化后的点扩展函数的复振幅反向传播到入瞳平面,并将对应不同深度点光源的复振幅加权平均,权重之和为1,加权平均后的入瞳平面复振幅中的振幅随后被设置为1,相位保留作为下一次迭代的输入;不断重复迭代过程,直至点扩展函数焦点主瓣内的光能的比例趋于稳定,迭代优化结束,得到透射相位设计。
6.根据权利要求1所述的单目快照式深度偏振四维成像方法,其特征在于,步骤S4包括:
步骤S411、从步骤S3拍摄的单幅编码图像中截取两个几何像点位置相对应的区域,得到两个尺寸相同的编码图块;
步骤S412、在两个所述编码图块中标记目标物体轮廓;
步骤S413、对每个标记的目标物体轮廓在两个编码图块中进行模板匹配,找到最佳匹配位置;
步骤S414、由各目标物体的最佳匹配位置得到相应目标物体的平移矢量,平移矢量的方位角即点扩展函数的方位角;
步骤S415、根据步骤S2中所标定的点扩展函数与深度的对应关系及点扩展函数的方位角得到各目标物体的深度,再根据步骤S412得到的各目标物体轮廓,从而得到目标物体的深度图;
步骤S416、根据步骤S414得到的平移矢量,将两个编码图块中的各物体平移回几何像点的位置,得到解码的两幅对应正交偏振分量的强度图;
步骤S417、将步骤S416所得两幅强度图相除,得到偏振对比图。
7.根据权利要求1所述的单目快照式深度偏振四维成像方法,其特征在于,步骤S4包括:
步骤S421、根据步骤S1所设计的点扩展函数通过数值计算从具有准确四维信息的图像生成编码图像,作为训练集;
步骤S422、构建神经网络,训练所述神经网络从步骤S421中生成的编码图像获取四维光场信息,将所述神经网络获取的四维光场信息与准确的四维光场信息之差值作为损失函数,对神经网络的参数进行训练,得到训练完毕的神经网络;
步骤S423、使用过程中,利用训练完毕的神经网络直接从拍摄的编码图像中获取四维光场信息。
8.根据权利要求1所述的单目快照式深度偏振四维成像方法,其特征在于,步骤S4包括:
步骤S421、以具有准确四维光场信息的图像构建训练集;
步骤S422、构建神经网络,将步骤S421的图像输入所述神经网络,获取准确的四维光场信息,神经网络根据上次迭代优化得到的透射相位模拟生成编码图像,并由该编码图像得到四维光场信息,以该四维光场信息与准确的四维光场信息之差值作为损失函数,通过反向传播同时更新神经网络参数与透射相位的分布,得到训练完毕的神经网络;
步骤S423、使用过程中,利用训练完毕的神经网络直接从拍摄的编码图像中获取四维光场信息。
9.一种单目快照式深度偏振四维成像系统,其特征在于,包括:超构表面镜头、光电传感器阵列和图像处理单元,所述超构表面镜头的参数按照根据权利要求1~8中任一项所述的单目快照式深度偏振四维成像方法中的步骤S1得到,所述图像处理单元配置有用于执行根据权利要求1~8中任一项所述的单目快照式深度偏振四维成像方法中步骤S4的指令。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210241266.XA CN114595636A (zh) | 2022-03-11 | 2022-03-11 | 一种单目快照式深度偏振四维成像方法和系统 |
US17/744,129 US12056889B2 (en) | 2022-03-11 | 2022-05-13 | Monocular snapshot four-dimensional imaging method and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210241266.XA CN114595636A (zh) | 2022-03-11 | 2022-03-11 | 一种单目快照式深度偏振四维成像方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114595636A true CN114595636A (zh) | 2022-06-07 |
Family
ID=81809116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210241266.XA Pending CN114595636A (zh) | 2022-03-11 | 2022-03-11 | 一种单目快照式深度偏振四维成像方法和系统 |
Country Status (2)
Country | Link |
---|---|
US (1) | US12056889B2 (zh) |
CN (1) | CN114595636A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114791669A (zh) * | 2022-04-28 | 2022-07-26 | 中国科学院苏州纳米技术与纳米仿生研究所 | 大尺寸消色差超表面透镜及其设计方法、制造方法 |
CN115327684A (zh) * | 2022-10-13 | 2022-11-11 | 季华实验室 | 超构透镜,三维成像系统、方法、电子设备及存储介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114595636A (zh) * | 2022-03-11 | 2022-06-07 | 清华大学 | 一种单目快照式深度偏振四维成像方法和系统 |
CN117237546B (zh) * | 2023-11-14 | 2024-01-30 | 武汉大学 | 一种基于光场成像的增材构件三维轮廓重建方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015157769A1 (en) * | 2014-04-11 | 2015-10-15 | The Regents Of The University Of Colorado, A Body Corporate | Scanning imaging for encoded psf identification and light field imaging |
TWI728605B (zh) * | 2018-12-20 | 2021-05-21 | 中央研究院 | 用於光場成像的超穎透鏡 |
US10992924B2 (en) * | 2019-03-05 | 2021-04-27 | California Institute Of Technology | Stereo-polarimetric compressed ultrafast photography (SP-CUP) systems and methods |
CN114595636A (zh) * | 2022-03-11 | 2022-06-07 | 清华大学 | 一种单目快照式深度偏振四维成像方法和系统 |
-
2022
- 2022-03-11 CN CN202210241266.XA patent/CN114595636A/zh active Pending
- 2022-05-13 US US17/744,129 patent/US12056889B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114791669A (zh) * | 2022-04-28 | 2022-07-26 | 中国科学院苏州纳米技术与纳米仿生研究所 | 大尺寸消色差超表面透镜及其设计方法、制造方法 |
CN114791669B (zh) * | 2022-04-28 | 2024-06-21 | 中国科学院苏州纳米技术与纳米仿生研究所 | 大尺寸消色差超表面透镜及其设计方法、制造方法 |
CN115327684A (zh) * | 2022-10-13 | 2022-11-11 | 季华实验室 | 超构透镜,三维成像系统、方法、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US12056889B2 (en) | 2024-08-06 |
US20230289989A1 (en) | 2023-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114595636A (zh) | 一种单目快照式深度偏振四维成像方法和系统 | |
Jeon et al. | Compact snapshot hyperspectral imaging with diffracted rotation | |
Sun et al. | End-to-end complex lens design with differentiable ray tracing | |
US10311555B2 (en) | Imaging system and method for imaging objects with reduced image blur | |
Shen et al. | Monocular metasurface camera for passive single-shot 4D imaging | |
CN106950195B (zh) | 基于散射介质的可编程光学元件及光场调控系统和方法 | |
US5748371A (en) | Extended depth of field optical systems | |
George et al. | Extended depth of field using a logarithmic asphere | |
KR20010043223A (ko) | 확장된 필드 깊이를 가진 광학 시스템 | |
EP3797384A1 (en) | Method and system for imaging and image processing | |
CN108718406B (zh) | 一种可变焦3d深度相机及其成像方法 | |
JP2012514749A (ja) | キラルの光学系を備えた光学式距離計および結像装置 | |
CN111866387B (zh) | 深度图像成像系统和方法 | |
CN1804566A (zh) | 基于分光棱镜的视场偏移哈特曼波前传感器 | |
CN108459417A (zh) | 一种单目窄带多光谱立体视觉系统及其使用方法 | |
CN115327684B (zh) | 超构透镜,三维成像系统、方法、电子设备及存储介质 | |
CN115456923A (zh) | 基于高光谱和多光谱图像融合生成高光谱图像的方法及系统 | |
Feng et al. | Reduction of artefacts and noise for a wavefront coding athermalized infrared imaging system | |
Ishihara et al. | Depth estimation using spectrally varying defocus blur | |
CN109102476B (zh) | 一种基于弥散圆拟合的多光谱图像散焦模糊核估计方法 | |
Guo | Efficient Passive Ranging with Computational Optics | |
CN116016952B (zh) | 用于光学成像系统的图像编解码模型的训练方法 | |
Jin et al. | Point spread function for the wide-field-of-view plenoptic cameras | |
Li et al. | Lensless camera: Unraveling the breakthroughs and prospects | |
RU2782980C1 (ru) | Устройство и способ формирования изображения с обеспечением увеличенной глубины изображаемого пространства (варианты) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
EE01 | Entry into force of recordation of patent licensing contract |
Application publication date: 20220607 Assignee: Weiwu Photon (Beijing) Technology Co.,Ltd. Assignor: TSINGHUA University Contract record no.: X2023980037583 Denomination of invention: A monocular snapshot deep polarization four-dimensional imaging method and system License type: Common License Record date: 20230704 |
|
EE01 | Entry into force of recordation of patent licensing contract |