CN114595636A - 一种单目快照式深度偏振四维成像方法和系统 - Google Patents

一种单目快照式深度偏振四维成像方法和系统 Download PDF

Info

Publication number
CN114595636A
CN114595636A CN202210241266.XA CN202210241266A CN114595636A CN 114595636 A CN114595636 A CN 114595636A CN 202210241266 A CN202210241266 A CN 202210241266A CN 114595636 A CN114595636 A CN 114595636A
Authority
CN
China
Prior art keywords
dimensional
polarized light
point spread
spread function
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210241266.XA
Other languages
English (en)
Inventor
杨原牧
沈子程
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202210241266.XA priority Critical patent/CN114595636A/zh
Priority to US17/744,129 priority patent/US12056889B2/en
Publication of CN114595636A publication Critical patent/CN114595636A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J4/00Measuring polarisation of light
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/10Numerical modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Computational Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Optics & Photonics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Medical Informatics (AREA)
  • Polarising Elements (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本公开实施例提供的单目快照式深度偏振四维成像方法和系统,包括:构建成像系统的数值仿真模型,通过入瞳平面的相位分布,设计与深度和偏振高度相关的点扩展函数并设计实现所述相位分布的镜头;根据设计的结果搭建成像系统,对该成像系统的点扩展函数进行标定,获取像场的畸变参数;利用搭建的成像系统对目标场景进行单次拍摄,得到含有目标场景四维光场信息的单幅编码图像,根据像场畸变参数对该单幅编码图像进行矫正;根据标定后的点扩展函数将目标场景的四维光场信息从单幅编码图像中解码,得到目标场景的强度图、偏振对比图和深度图。本公开实施例在有效控制成本、体积、重量和能耗的前提下,能够获取高精度的四维光场信息。

Description

一种单目快照式深度偏振四维成像方法和系统
技术领域
本公开可被应用于光学成像和机器视觉等领域,具体涉及一种可对二维强度、深度、偏振等四维光场实现单目快照式成像的方法和系统。
背景技术
获取场景的多维光场信息,包括探测场景的二维光强、深度、偏振、光谱信息。传统相机成像时仅获取目标场景的二维光强信息。深度信息即场景内各点到相机的距离,其在机器人、自动驾驶、智能制造、人脸识别与检测、增强现实等领域有着广泛的应用。光场的偏振和光谱信息可以揭示场景更加丰富的特征,对于目标识别与追踪、特征分析、图像增强等任务有着重要的作用。
传统多维视觉感知系统通常体积、重量与功耗庞大,并且一般会牺牲时间和空间分辨率,难以满足众多实际应用需求。例如深度信息的获取往往需要主动激光照明或采用多个镜头;偏振成像往往需要通过分振幅、分焦面或时域复用的方式;光谱探测需要大体积色散分光元件、空域复用的滤波阵列或时域复用的扫描。同时获取二维光强、深度、偏振、光谱在内的多维光场信息则更具挑战,需要进一步增加系统体积与复杂度。
近年来,超构表面(Metasurface)的提出引起了广泛关注。通过亚波长尺度的结构设计,超构表面可以对电磁波的振幅、相位和偏振等特性进行灵活地调控。将超构表面集成于成像系统中,为通过集成化、微型化的系统获取场景的深度、偏振、光谱信息提供了新的可能性。但是已实验演示的利用超构表面探测光场信息的工作仅能获取二维光强外的一维信息,且仍需要主动激光照明,时、空域复用等。
发明内容
本公开旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本公开第一方面实施例提出一种可实现集成化、微型化对四维光场信息实时、高精度获取的单目快照式深度偏振四维成像方法,包括:
步骤S1、构建成像系统的数值仿真模型,通过优化成像系统的入瞳平面的相位分布,设计与深度和偏振高度相关的点扩展函数并设计实现所述相位分布的镜头参数;
步骤S2、根据步骤S1的设计结果搭建成像系统,对该成像系统的点扩展函数进行标定;获取像场的畸变参数;
步骤S3、利用步骤S2搭建的成像系统对目标场景进行单次拍摄,得到含有目标场景四维光场信息的单幅编码图像,根据步骤S2中获取的像场畸变参数对该单幅编码图像进行矫正;
步骤S4、根据步骤S2标定后的点扩展函数将目标场景的四维光场信息从单幅编码图像中解码,得到目标场景的强度图、偏振对比图和深度图。
本公开第一方面实施例提供的单目快照式深度偏振四维成像方法,具有以下特点及有益效果:
成像系统的在二维光电传感器上的输出图像g(x,y)是包含二维光强投影、场景深度、偏振等多维信息的系统输入光场f(x,y,z,p)与成像系统点扩展函数PSF(x,y,z,p)的卷积。传统成像方法仅考虑成像系统对二维光强的脉冲响应,即PSF(x,y),从而丢失其它维度的信息。本公开实施例体提供的成像方法通过对成像系统对多维光场的脉冲响应PSF(x,y,z,p)以及图像解码方法进行联合设计,以实现无需激光照明的单目快照式多维光场信息获取。本公开实施例提供的成像方法具有极低的复杂度,便于成像系统的集成化与微型化,以远小于传统方法所需的成本、体积、重量、能耗等,能够获取高精度的四维光场信息。
在一些实施例中,步骤S1中,所述镜头选用超构表面镜头,所述超构表面镜头包括以阵列形式布设的若干光学天线,所述步骤S1包括以下步骤:
步骤S101、根据在目标波段的损耗和折射率选取所述超构表面镜头的材料和所述光学天线的几何结构;
步骤S102、通过仿真计算确定实现独立调控一对正交线偏振光或分别独立调控多对正交偏振光的透射相位的光学天线的可选几何参数;
步骤S103、选取物理模型,初步设计与深度和偏振高度相关的点扩展函数所需的透射相位;
步骤S104、以最大化单螺旋点扩展函数的焦点光能量为目标对初步设计的透射相位进行迭代优化;
步骤S105、根据步骤S104得到的透射相位设计,并结合步骤S102确定的光学天线的几何参数中选取超构表面镜头在(x,y)坐标处的光学天线的几何参数。
在一些实施例中,步骤S103中,所述点扩展函数采用单螺旋点扩展函数;一对所述正交线偏振光为X偏振光和Y偏振光;多对所述正交偏振光包括X偏振光和Y偏振光、X偏振光和Y偏振光偏振方向旋转45°的一对正交线偏振光,X偏振光和Y偏振光、X偏振光和Y偏振光偏振方向旋转45°的一对左旋圆偏振光,以及X偏振光和Y偏振光、X偏振光和Y偏振光偏振方向旋转45°的一对右旋圆偏振光中的任意两对或三对偏振光。
在一些实施例中,步骤S103中,将超构表面镜头的透射相位初步设计为产生单螺旋点扩展函数的附加相位项加上标准透镜聚焦项与偏振分光项,其中选取一对正交线偏振光时:
设对X偏振光的标准透镜聚焦项与偏振分光项为ψxf,设对Y偏振光的标准透镜聚焦项与偏振分光项为ψyf,表达式分别为:
Figure BDA0003541964720000031
Figure BDA0003541964720000032
式中,f为超构表面镜头的焦距,θ为偏振分光的离轴角,x,y为入瞳平面沿x轴和y轴的二维坐标;
设对X偏振光的产生单螺旋点扩展函数的附加相位项为
Figure BDA0003541964720000033
设对Y偏振光的产生单螺旋点扩展函数的附加相位项为
Figure BDA0003541964720000034
均通过菲涅耳区方法设计得到,
Figure BDA0003541964720000035
Figure BDA0003541964720000036
的表达式分别为:
Figure BDA0003541964720000037
Figure BDA0003541964720000038
式中,u为入瞳平面的归一化径向坐标,
Figure BDA0003541964720000039
为入瞳平面的方位角,[L,ε]是可调的设计参数,L用于调节单螺旋点扩展函数随深度的旋转速率,ε用于调节单螺旋点扩展函数紧凑程度与形状不变性之间的取舍。
在一些实施例中,步骤S104包括:
从相位分布的初步设计置于入瞳平面开始,以角谱法计算若干位于不同深度的轴上点光源在成像平面上对应的但螺旋点扩展函数的复振幅,将该复振幅与优化函数相乘,所述优化函数为满足二维高斯分布的复振幅,以该复振幅的振幅峰值为中心,用于迭代地增加限制在单螺旋的点扩展函数焦点主瓣内的光能的比例,将优化后的点扩展函数的复振幅反向传播到入瞳平面,并将对应不同深度点光源的复振幅加权平均,权重之和为1,加权平均后的入瞳平面复振幅中的振幅随后被设置为1,相位保留作为下一次迭代的输入;不断重复迭代过程,直至点扩展函数焦点主瓣内的光能的比例趋于稳定,迭代优化结束,得到透射相位设计。
在一些实施例中,步骤S4包括:
步骤S411、从步骤S3拍摄的单幅编码图像中截取两个几何像点位置相对应的区域,得到两个尺寸相同的编码图块;
步骤S412、在两个所述编码图块中标记目标物体轮廓;
步骤S413、对每个标记的目标物体轮廓在两个编码图块中进行模板匹配,找到最佳匹配位置;
步骤S414、由各目标物体的最佳匹配位置得到相应目标物体的平移矢量,平移矢量的方位角即点扩展函数的方位角;
步骤S415、根据步骤S2中所标定的点扩展函数与深度的对应关系及点扩展函数的方位角得到各目标物体的深度,再根据步骤S412得到的各目标物体轮廓,从而得到目标物体的深度图;
步骤S416、根据步骤S414得到的平移矢量,将两个编码图块中的各物体平移回几何像点的位置,得到解码的两幅对应正交偏振分量的强度图;
步骤S417、将步骤S416所得两幅强度图相除,得到偏振对比图。
在一些实施例中,步骤S4包括:
步骤S421、根据步骤S1所设计的点扩展函数通过数值计算从具有准确四维信息的图像生成编码图像,作为训练集;
步骤S422、构建神经网络,训练所述神经网络从步骤S421中生成的编码图像获取四维光场信息,将所述神经网络获取的四维光场信息与准确的四维光场信息之差值作为损失函数,对神经网络的参数进行训练,得到训练完毕的神经网络;
步骤S423、使用过程中,利用训练完毕的神经网络直接从拍摄的编码图像中获取四维光场信息。
在一些实施例中,步骤S4包括:
步骤S421、以具有准确四维光场信息的图像构建训练集;
步骤S422、构建神经网络,将步骤S421的图像输入所述神经网络,获取准确的四维光场信息,神经网络根据上次迭代优化得到的透射相位模拟生成编码图像,并由该编码图像得到四维光场信息,以该四维光场信息与准确的四维光场信息之差值作为损失函数,通过反向传播同时更新神经网络参数与透射相位的分布,得到训练完毕的神经网络;
步骤S423、使用过程中,利用训练完毕的神经网络直接从拍摄的编码图像中获取四维光场信息。
本公开第二方面实施例提供的单目快照式深度偏振四维成像系统,包括:超构表面镜头、光电传感器阵列和图像处理单元,所述超构表面镜头的参数按照本公开第一方面实施例中任一项所述的单目快照式深度偏振四维成像方法中的步骤S1得到,所述图像处理单元配置有用于执行根据本公开第一方面实施例中任一项所述的单目快照式深度偏振四维成像方法中步骤S4的指令。
附图说明
附图用来配合具体实施方式对本公开实施例作进一步的理解,构成了说明书的一部分,但并不构成对本公开实施例的限制。
图1是本公开第一方面实施例提供的单目快照式深度偏振四维成像方法的流程图。
图2是本公开第一方面实施例提供的成像方法中设计用于四维成像的点扩展函数及相应镜头参数的方法流程图。
图3是本公开第一方面实施例提供的一种用于四维成像的超构表面镜头的侧视图。
图4是本公开第一方面实施例提供的一种用于四维成像的超构表面镜头的俯视图。
图5(a)~图5(d)是本公开第一方面实施例提供的图3所示超构表面镜头中,二维光学天线对正交线偏振入射光的相位和透射率调制量随光学天线长宽的变化关系;其中图5(a)、图5(b)分别为各天线对X线偏振入射光相位的调制量和透射率与相应天线的长度、宽度的关系,图5(c)、图5(d)分别为各天线对Y线偏振入射光相位的调制量和透射率与相应天线的长度、宽度的关系。
图6(a)、图6(b)分别是本公开第一方面实施例提供的一种用于多维成像的超构表面镜头对X和Y线偏振入射光各自的透射相位。
图7是本公开第一方面实施例提供的成像方法得到的对于位于不同物方深度的点光源,对X和Y线偏振入射光各自的点扩展函数。
图8是本公开第一方面实施例提供的成像方法中步骤S4的解码过程的流程图。
图9是本公开第一方面实施例提供的成像方法中步骤S4的另一种解码过程的流程图。
图10是本公开第二方面实施例提供的四维成像系统及其光路示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细描述。应当理解,此处所描述的具体实施例仅仅用于解释本申请,并不用于限定本申请。
相反,本申请涵盖任何由权利要求定义的在本申请精髓和范围上做的替代、修改、等效方法以及方案。进一步,为了使公众对本申请有更好的了解,在下文对本申请的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本申请。
参见图1,本公开第一方面实施例提供的一种单目快照式深度偏振四维成像方法,包括以下步骤:
步骤S1、构建成像系统的数值仿真模型,通过优化成像系统的入瞳平面的相位分布,设计与深度和偏振高度相关的点扩展函数并设计实现所述相位分布的镜头参数;
步骤S2、根据步骤S1的设计结果搭建成像系统,对该成像系统的点扩展函数进行标定;获取像场的畸变参数;
步骤S3、利用步骤S2搭建的成像系统对目标场景进行单次拍摄,得到含有目标场景四维光场信息的单幅编码图像,并根据步骤S2中获取的像场畸变参数对该单幅编码图像进行矫正;
步骤S4、根据步骤S2标定后的点扩展函数将目标场景的四维光场信息从单幅编码图像中解码,得到对应两正交偏振的强度图、偏振对比图和深度图。
在一些实施例中,对于步骤S1,任意与深度和偏振高度相关的点扩展函数,均可以实现深度和偏振信息的高精度获取,这一相关性的高低可以通过费舍尔信息量定量衡量,可通过物理模型和包括深度学习在内的优化算法进行设计。
在一些实施例中,针对基于能独立调控一对正交线偏振光透射相位的超构表面镜头的成像系统,设计并实现与深度和偏振高度相关的点扩展函数。此外,通过对该超构表面镜头进一步设计可以达到独立调控多对正交偏振态,以实现全斯托克斯偏振成像的目的。
在一些实施例中,参见图2,步骤S1包括以下步骤:
步骤S101、根据在目标波段的损耗和折射率等为超构表面镜头选取合适的材料,选取合适的光学天线的几何结构(此处几何结构具体指光学天线选用的截面形状,如圆形、多边形等)以实现一对正交偏振光透射相位的独立调控。在一个实施例中,本步骤的具体实现过程如下:
图3和图4展示了一个实施例中超构表面镜头的主视图和俯视图。该超构表面镜头由衬底202和以二维阵列形式布设于衬底202表面的若干光学天线201组成,各光学天线201的高度均在亚波长范围内,且均由高折射率(折射率>2)的介质材料构成,包含硅、氮化硅、二氧化钛、磷化镓、氮化镓或砷化镓等。本实施例的超构表面镜头为透射式,衬底202可以选择熔融玻璃或石英等透明(透射率>80%)基底,各光学天线采用硅制成;
分别以平行于光学天线阵列行和列的方向作为x轴和y轴,并以右手定则建立坐标系xyz,各光学天线沿xy平面的横截面形状可以为矩形、椭圆形或其它任意具有C2对称性的形状(本实施例采用矩形)。光学天线阵列中的各光学天线在高度固定的情况下,可以通过设计不同的长和宽实现独立调控正交线偏振光的透射相位。
步骤S102、通过仿真计算确定一组实现独立调控正交线偏振光的透射相位的光学天线的几何参数(此处的几何参数具体指在步骤S101选定的光学天线的几何结构的基础之上确定的几何结构的具体尺寸)。在一个实施例中,本步骤的具体实现过程如下:
根据工作波长λ,利用时域有限差分或严格耦合波分析等方法,计算单个光学天线在不同高度、中心距、宽度和长度的情况下,对一对正交线偏振入射光(本实施例为X偏振光和Y偏振光)的相位和透过率的调制情况。本实施例中,确定工作波长为800纳米,固定硅柱天线的高度为600纳米,中心距为400纳米,确定光学天线的长度、宽度均分别为100~340纳米。如图5所示,通过计算得到的单个光学天线对X线偏振光相位的调制量和透射率与该光学天线的长度L和宽度W的关系,分别如图5(a)和5(b)所示;单个光学天线对Y线偏振光相位的调制量和透射率与该光学天线的长度L和宽度W的关系,分别如图5(c)和5(d)所示,相位调制范围可以包含0~2π内的所有取值,且透过率接近于1。多阶(可为6~10阶)线性相位划分[0,2π]范围,本实施例选取8阶线性相位划分[0,2π]范围为0、45、90、135、180、225、270、315度。则根据X偏振光对应8阶透射相位值及Y偏振光对应8阶透射相位值,选取满足相应透射相位值,且透射率接近1的64组纳米天线的几何参数。则得到所需的能在透射率接近1的情况下地独立任意调控正交线偏振光的透射相位的纳米天线几何参数。此外,通过旋转光学天线,可以实现不同正交偏振分量的独立调控,将数种不同正交偏振分量的独立调控的光学天线进行空间复用,则可以实现全斯托克斯偏振成像。
步骤S103、选取合适的物理模型,初步设计与深度和偏振高度相关的点扩展函数所需的透射相位。
在一个本实施例中,将正交的偏振分量分开于成像平面上不同区域以一对共轭单螺旋点扩展函数聚焦,以形成完全解耦合的两幅偏振图像,且不牺牲分辨率。单螺旋点扩展函数具有随物点深度变化而围绕几何像点旋转的焦点,且在相当大的景深范围内保持形状的稳定,将两幅偏振图像配准可以获得旋转角度从而获取深度信息。单螺旋点扩展函数具有在深度维度大于标准透镜点扩展函数两个数量级的费舍尔信息量,以及更大的景深,从而保证了深度信息的高精度大景深获取。以这种点扩展函数所成图像可以直接获取具有远大于标准透镜的景深的二维光强信息与偏振信息,不需要解卷积等耗时且影响图像保真度的处理。本实施例中,步骤S103的具体实现过程如下:
将超构表面镜头的透射相位初步设计为产生单螺旋点扩展函数的附加相位项加上标准透镜聚焦项与偏振分光项,其中:
设对X偏振光的标准透镜聚焦项与偏振分光项为ψxf,设对Y偏振光的标准透镜聚焦项与偏振分光项为ψyf,表达式分别为:
Figure BDA0003541964720000081
Figure BDA0003541964720000082
式中,f=20mm为镜头焦距,θ=8度为偏振分光的离轴角,x,y为入瞳平面沿x轴和y轴的二维坐标;
设对X偏振光的产生单螺旋点扩展函数的附加相位项为
Figure BDA0003541964720000083
设对Y偏振光的产生单螺旋点扩展函数的附加相位项为
Figure BDA0003541964720000084
均通过菲涅耳区方法设计得到。菲涅耳区方法在成像系统的入瞳平面中排列了携带螺旋相位分布的环带,并向外环增加拓扑量子数,这种方法可以产生的大景深且紧凑的旋转点扩展函数。
Figure BDA0003541964720000085
Figure BDA0003541964720000086
的表达式分别为:
Figure BDA0003541964720000087
Figure BDA0003541964720000088
式中,u为入瞳平面的归一化径向坐标,
Figure BDA0003541964720000089
为入瞳平面的方位角,[L,ε]是可调的设计参数,L用于调节点扩展函数随深度的旋转速率,ε用于调节点扩展函数紧凑程度与形状不变性之间的取舍,本实施例取[L,ε]=[6,0.5]。本实施例中,对Y偏振光的附加透射相位项通过将X偏振光的附加透射相位项旋转180度得到。
步骤S104、以最大化单螺旋点扩展函数的焦点光能量,减弱旁瓣影响作为目标,对步骤S103中初步设计的透射相位进行迭代优化,以提高点扩展函数的质量。在一个实施例中,本步骤的具体实现过程如下:
从相位分布的初步设计置于入瞳平面开始,以角谱法计算9个位于不同深度的轴上点光源在成像平面上对应的点扩展函数的复振幅。然后将该复振幅与优化函数相乘,优化函数是一个二维高斯分布的复振幅,以该复振幅的振幅峰值为中心,用于迭代地增加限制在单螺旋的点扩展函数焦点主瓣内的光能的比例。优化后的点扩展函数复振幅随后反向传播到入瞳平面,并将对应不同深度点光源的复振幅加权平均,权重之和为1。加权平均后的入瞳平面复振幅中的振幅随后被设置为1,相位保留作为下一次迭代的输入。不断重复迭代过程,直至点扩展函数焦点主瓣内的光能的比例趋于稳定,迭代优化结束,得到透射相位设计。
在本实施例中,经过10次迭代,得到优化的超构表面镜头对一对正交线偏振光的透射相位的设计如图6(a)和图6(b)所示,两正交线偏振各自对应的点扩展函数如图7所示,其中601为点扩展函数的旋转方向,602为几何像点的位置。
步骤S105、根据步骤S104得到的透射相位设计,并结合S102确定的光学天线的几何参数中选取超构表面镜头(x,y)坐标处的光学天线的几何参数。
在一些实施例中,步骤S2具体包括以下步骤:
根据步骤S1设计的超构表面镜头参数并利用光电传感器搭建实际的成像系统,测量该成像系统对位于不同深度和具有不同偏振态的点光源的实际点扩展函数。另一方面利用相应的方法,例如张正友标定法获取成像系统的畸变参数。
在一些实施例中,步骤S3具体包括以下步骤:
利用步骤S2搭建的成像系统对目标场景进行单次拍摄,即得到被点扩展函数编码目标场景四维信息的图像,记为单幅编码图像。利用步骤S2中获取的畸变参数对该单幅编码图像进行矫正。
在一些实施例中,参见图8,步骤S4是根据点扩展函数设计时提供的明确的与深度和偏振信息的对应规律,利用不需要深度学习的图像处理方法直接获取目标场景的四维光场信息,具体包括以下步骤:
步骤S411、从步骤S3拍摄的单幅编码图像中截取两个几何像点位置相对应的区域,得到两个尺寸相同的编码图块;
步骤S412、使用图像分割算法在两个编码图块中标记目标物体轮廓,可选地,首先利用Canny边缘检测方法进行边缘检测,然后使用连通区域检测算法提取连通区域,并剔除过小区域,得到编码图块中目标物体的轮廓。
步骤S413、对每个标记的目标物体轮廓在两个编码图块中进行模板匹配,找到最佳匹配位置。其中,设每个目标物体大致位于均一的深度,故其被一对共轭单螺旋点扩展函数所成的两个编码像具有平移对应关系,可以利用模板匹配找到该对应关系。
步骤S414、由各目标物体的最佳匹配位置得到相应目标物体的平移矢量,平移矢量的方位角即单螺旋点扩展函数的方位角。
步骤S415、根据步骤S2中所标定的点扩展函数与深度的对应关系及单螺旋点扩展函数的方位角得到各目标物体的深度,再根据步骤S412得到的各目标物体轮廓,从而得到目标物体的深度图。
步骤S416、根据步骤S414得到的平移矢量,可将两个编码图块中的各物体平移回几何像点的位置,得到解码的两幅对应正交偏振分量的强度图。
步骤S417、将步骤S416所得两幅强度图相除,得到偏振对比图,其可用于物体识别与特征分析等。
在另一些实施例中,参见图9,步骤S4是基于深度学习的方法获取目标场景的四维光场信息,该基于深度学习的方法指利用训练集训练一个从编码图像获取多维光场信息的神经网络,再利用其从实际图像中获取多维光场信息。基于深度学习的方法还可以对神经网络参数与点扩展函数设计参数进行联合优化。步骤S4具体包括以下步骤:
步骤S421、根据步骤S1所设计的点扩展函数通过数值计算从具有准确四维信息的图像生成编码图像,作为训练集。
步骤S422、选取合适的卷积神经网络,例如U-net,训练其从步骤S421中生成的编码图像获取四维光场信息,将神经网络获取的四维光场信息与准确的四维光场信息之差值作为损失函数,对神经网络的参数进行训练。或者将步骤S421模拟生成编码图像的过程嵌入到训练循环之中,即在训练中直接以具有准确四维光场信息的图像作为神经网络的输入,由上次迭代得到的透射相位(第一次迭代为步骤S104所得透射相位)模拟生成编码图像,再经过神经网络得到四维光场信息,仍然以神经网络得到的四维光场信息与准确的四维光场信息之差值作为损失函数,通过反向传播同时更新神经网络参数与点扩展函数设计即透射相位的分布,从而进行联合优化。
步骤S423、可选地,由于步骤S421中模拟生成编码图像的过程与实际成像必然存在差异,故此处利用一定量实际拍摄图像对模拟成像所训练的神经网络进行进一步适应性训练以优化神经网络参数。
步骤S424、使用过程中,利用训练好的神经网络直接从拍摄的编码图像中获取四维光场信息。
基于深度学习的方法可与更为抽象的点扩展函数与深度和偏振信息的对应规律相配套,且可以应对更为复杂的场景,但是其表现受限于训练集。本公开实施例提供的如图8和图9所示的两种方法均不需要先验信息且具有较高的处理速度。
本公开第二方面实施例提供的单目快照式深度偏振四维成像系统,参见图10,包括:超构表面镜头2、光电传感器阵列3以及图像处理单元4,该四维成像系统用于对目标场景1进行探测,所获取四维光场信息5。其中,超过表面镜头2的参数按照本公开第一方面实施例提供的单目快照式深度偏振四维成像方法中步骤S1设计得到,图像处理单元4配置有用于执行根据本公开第一方面实施例提供的单目快照式深度偏振四维成像方法中步骤S4的指令。
参见图10,本公开第二方面实施例提供的单目快照式深度偏振四维成像系统的工作过程为:
当目标场景1为位于某一深度的点光源时,超构表面镜头2将正交线偏振态的入射光离轴聚焦于光电传感器阵列3平面上的不同位置,形成如图7所示的一对单螺旋点扩展函数;一般情形下,超构表面镜头2将正交线偏振态的入射光离轴聚焦于光电传感器阵列3上的不同区域,形成两幅互不重叠的图像。
该成像系统对目标场景1进行拍摄时,光电传感器阵列3进行单次曝光即得到编码了目标四维场景信息的编码图像。该编码图像经过图像处理单元4,该图像处理单元可为计算机、手机芯片、现场可编程门阵列等,通过运行步骤S4所对应的指令,即得到目标场景的四维光场信息5。
综上所述,本公开实施例利用超构表面对光场多维参量的灵活调控能力,将目标物体的多维光场信息通过超构表面编码在成像平面上,结合图像获取算法从单幅编码图像中获取多维光场信息。成像系统的在二维光电传感器上的输出图像g(x,y)是包含二维光强投影、场景深度、偏振等多维信息的系统输入光场f(x,y,z,p)与成像系统点扩展函数PSF(x,y,z,p)的卷积。传统成像方法仅考虑成像系统对二维光强的脉冲响应,即PSF(x,y),从而丢失其它维度的信息。本公开实施例体提供的成像方法通过对成像系统对多维光场的脉冲响应PSF(x,y,z,p)以及图像解码方法进行联合设计,以实现无需激光照明的单目快照式多维光场信息获取。本公开实施例提供的成像方法具有极低的复杂度,便于成像系统的集成化与微型化,以远小于传统方法所需的成本、体积、重量、能耗等,能够获取高精度的四维光场信息。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
尽管已经示出和描述了本公开的实施例,本领域的普通技术人员可以理解:在不脱离本公开的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本公开的范围由权利要求及其等同物限定。

Claims (9)

1.一种单目快照式深度偏振四维成像方法,其特征在于,包括:
步骤S1、构建成像系统的数值仿真模型,通过优化成像系统的入瞳平面的相位分布,设计与深度和偏振高度相关的点扩展函数并设计实现所述相位分布的镜头参数;
步骤S2、根据步骤S1的设计结果搭建成像系统,对该成像系统的点扩展函数进行标定;获取像场的畸变参数;
步骤S3、利用步骤S2搭建的成像系统对目标场景进行单次拍摄,得到含有目标场景四维光场信息的单幅编码图像,根据步骤S2中获取的像场畸变参数对该单幅编码图像进行矫正;
步骤S4、根据步骤S2标定后的点扩展函数将目标场景的四维光场信息从单幅编码图像中解码,得到目标场景的强度图、偏振对比图和深度图。
2.根据权利要求1所述的单目快照式深度偏振四维成像方法,其特征在于,步骤S1中,所述镜头选用超构表面镜头,所述超构表面镜头包括以阵列形式布设的若干光学天线,所述步骤S1包括以下步骤:
步骤S101、根据在目标波段的损耗和折射率选取所述超构表面镜头的材料和所述光学天线的几何结构;
步骤S102、通过仿真计算确定实现独立调控一对正交线偏振光或分别独立调控多对正交偏振光的透射相位的光学天线的可选几何参数;
步骤S103、选取物理模型,初步设计与深度和偏振高度相关的点扩展函数所需的透射相位;
步骤S104、以最大化单螺旋点扩展函数的焦点光能量为目标对初步设计的透射相位进行迭代优化;
步骤S105、根据步骤S104得到的透射相位设计,并结合步骤S102确定的光学天线的几何参数中选取超构表面镜头在(x,y)坐标处的光学天线的几何参数。
3.根据权利要求2所述的单目快照式深度偏振四维成像方法,其特征在于,步骤S103中,所述点扩展函数采用单螺旋点扩展函数;一对所述正交线偏振光为X偏振光和Y偏振光;多对所述正交偏振光包括X偏振光和Y偏振光、X偏振光和Y偏振光偏振方向旋转45°的一对正交线偏振光,X偏振光和Y偏振光、X偏振光和Y偏振光偏振方向旋转45°的一对左旋圆偏振光,以及X偏振光和Y偏振光、X偏振光和Y偏振光偏振方向旋转45°的一对右旋圆偏振光中的任意两对或三对偏振光。
4.根据权利要求3所述的单目快照式深度偏振四维成像方法,其特征在于,步骤S103中,将超构表面镜头的透射相位初步设计为产生单螺旋点扩展函数的附加相位项加上标准透镜聚焦项与偏振分光项,其中选取一对正交线偏振光时:
设对X偏振光的标准透镜聚焦项与偏振分光项为ψxf,设对Y偏振光的标准透镜聚焦项与偏振分光项为ψyf,表达式分别为:
Figure FDA0003541964710000021
Figure FDA0003541964710000022
式中,f为超构表面镜头的焦距,θ为偏振分光的离轴角,x,y为入瞳平面沿x轴和y轴的二维坐标;
设对X偏振光的产生单螺旋点扩展函数的附加相位项为
Figure FDA0003541964710000023
设对Y偏振光的产生单螺旋点扩展函数的附加相位项为
Figure FDA0003541964710000024
均通过菲涅耳区方法设计得到,
Figure FDA0003541964710000025
Figure FDA0003541964710000026
的表达式分别为:
Figure FDA0003541964710000027
Figure FDA0003541964710000028
式中,u为入瞳平面的归一化径向坐标,
Figure FDA0003541964710000029
为入瞳平面的方位角,[L,ε]是可调的设计参数,L用于调节单螺旋点扩展函数随深度的旋转速率,ε用于调节单螺旋点扩展函数紧凑程度与形状不变性之间的取舍。
5.根据权利要求3所述的单目快照式深度偏振四维成像方法,其特征在于,步骤S104包括:
从相位分布的初步设计置于入瞳平面开始,以角谱法计算若干位于不同深度的轴上点光源在成像平面上对应的但螺旋点扩展函数的复振幅,将该复振幅与优化函数相乘,所述优化函数为满足二维高斯分布的复振幅,以该复振幅的振幅峰值为中心,用于迭代地增加限制在单螺旋的点扩展函数焦点主瓣内的光能的比例,将优化后的点扩展函数的复振幅反向传播到入瞳平面,并将对应不同深度点光源的复振幅加权平均,权重之和为1,加权平均后的入瞳平面复振幅中的振幅随后被设置为1,相位保留作为下一次迭代的输入;不断重复迭代过程,直至点扩展函数焦点主瓣内的光能的比例趋于稳定,迭代优化结束,得到透射相位设计。
6.根据权利要求1所述的单目快照式深度偏振四维成像方法,其特征在于,步骤S4包括:
步骤S411、从步骤S3拍摄的单幅编码图像中截取两个几何像点位置相对应的区域,得到两个尺寸相同的编码图块;
步骤S412、在两个所述编码图块中标记目标物体轮廓;
步骤S413、对每个标记的目标物体轮廓在两个编码图块中进行模板匹配,找到最佳匹配位置;
步骤S414、由各目标物体的最佳匹配位置得到相应目标物体的平移矢量,平移矢量的方位角即点扩展函数的方位角;
步骤S415、根据步骤S2中所标定的点扩展函数与深度的对应关系及点扩展函数的方位角得到各目标物体的深度,再根据步骤S412得到的各目标物体轮廓,从而得到目标物体的深度图;
步骤S416、根据步骤S414得到的平移矢量,将两个编码图块中的各物体平移回几何像点的位置,得到解码的两幅对应正交偏振分量的强度图;
步骤S417、将步骤S416所得两幅强度图相除,得到偏振对比图。
7.根据权利要求1所述的单目快照式深度偏振四维成像方法,其特征在于,步骤S4包括:
步骤S421、根据步骤S1所设计的点扩展函数通过数值计算从具有准确四维信息的图像生成编码图像,作为训练集;
步骤S422、构建神经网络,训练所述神经网络从步骤S421中生成的编码图像获取四维光场信息,将所述神经网络获取的四维光场信息与准确的四维光场信息之差值作为损失函数,对神经网络的参数进行训练,得到训练完毕的神经网络;
步骤S423、使用过程中,利用训练完毕的神经网络直接从拍摄的编码图像中获取四维光场信息。
8.根据权利要求1所述的单目快照式深度偏振四维成像方法,其特征在于,步骤S4包括:
步骤S421、以具有准确四维光场信息的图像构建训练集;
步骤S422、构建神经网络,将步骤S421的图像输入所述神经网络,获取准确的四维光场信息,神经网络根据上次迭代优化得到的透射相位模拟生成编码图像,并由该编码图像得到四维光场信息,以该四维光场信息与准确的四维光场信息之差值作为损失函数,通过反向传播同时更新神经网络参数与透射相位的分布,得到训练完毕的神经网络;
步骤S423、使用过程中,利用训练完毕的神经网络直接从拍摄的编码图像中获取四维光场信息。
9.一种单目快照式深度偏振四维成像系统,其特征在于,包括:超构表面镜头、光电传感器阵列和图像处理单元,所述超构表面镜头的参数按照根据权利要求1~8中任一项所述的单目快照式深度偏振四维成像方法中的步骤S1得到,所述图像处理单元配置有用于执行根据权利要求1~8中任一项所述的单目快照式深度偏振四维成像方法中步骤S4的指令。
CN202210241266.XA 2022-03-11 2022-03-11 一种单目快照式深度偏振四维成像方法和系统 Pending CN114595636A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210241266.XA CN114595636A (zh) 2022-03-11 2022-03-11 一种单目快照式深度偏振四维成像方法和系统
US17/744,129 US12056889B2 (en) 2022-03-11 2022-05-13 Monocular snapshot four-dimensional imaging method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210241266.XA CN114595636A (zh) 2022-03-11 2022-03-11 一种单目快照式深度偏振四维成像方法和系统

Publications (1)

Publication Number Publication Date
CN114595636A true CN114595636A (zh) 2022-06-07

Family

ID=81809116

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210241266.XA Pending CN114595636A (zh) 2022-03-11 2022-03-11 一种单目快照式深度偏振四维成像方法和系统

Country Status (2)

Country Link
US (1) US12056889B2 (zh)
CN (1) CN114595636A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114791669A (zh) * 2022-04-28 2022-07-26 中国科学院苏州纳米技术与纳米仿生研究所 大尺寸消色差超表面透镜及其设计方法、制造方法
CN115327684A (zh) * 2022-10-13 2022-11-11 季华实验室 超构透镜,三维成像系统、方法、电子设备及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114595636A (zh) * 2022-03-11 2022-06-07 清华大学 一种单目快照式深度偏振四维成像方法和系统
CN117237546B (zh) * 2023-11-14 2024-01-30 武汉大学 一种基于光场成像的增材构件三维轮廓重建方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015157769A1 (en) * 2014-04-11 2015-10-15 The Regents Of The University Of Colorado, A Body Corporate Scanning imaging for encoded psf identification and light field imaging
TWI728605B (zh) * 2018-12-20 2021-05-21 中央研究院 用於光場成像的超穎透鏡
US10992924B2 (en) * 2019-03-05 2021-04-27 California Institute Of Technology Stereo-polarimetric compressed ultrafast photography (SP-CUP) systems and methods
CN114595636A (zh) * 2022-03-11 2022-06-07 清华大学 一种单目快照式深度偏振四维成像方法和系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114791669A (zh) * 2022-04-28 2022-07-26 中国科学院苏州纳米技术与纳米仿生研究所 大尺寸消色差超表面透镜及其设计方法、制造方法
CN114791669B (zh) * 2022-04-28 2024-06-21 中国科学院苏州纳米技术与纳米仿生研究所 大尺寸消色差超表面透镜及其设计方法、制造方法
CN115327684A (zh) * 2022-10-13 2022-11-11 季华实验室 超构透镜,三维成像系统、方法、电子设备及存储介质

Also Published As

Publication number Publication date
US12056889B2 (en) 2024-08-06
US20230289989A1 (en) 2023-09-14

Similar Documents

Publication Publication Date Title
CN114595636A (zh) 一种单目快照式深度偏振四维成像方法和系统
Jeon et al. Compact snapshot hyperspectral imaging with diffracted rotation
Sun et al. End-to-end complex lens design with differentiable ray tracing
US10311555B2 (en) Imaging system and method for imaging objects with reduced image blur
Shen et al. Monocular metasurface camera for passive single-shot 4D imaging
CN106950195B (zh) 基于散射介质的可编程光学元件及光场调控系统和方法
US5748371A (en) Extended depth of field optical systems
George et al. Extended depth of field using a logarithmic asphere
KR20010043223A (ko) 확장된 필드 깊이를 가진 광학 시스템
EP3797384A1 (en) Method and system for imaging and image processing
CN108718406B (zh) 一种可变焦3d深度相机及其成像方法
JP2012514749A (ja) キラルの光学系を備えた光学式距離計および結像装置
CN111866387B (zh) 深度图像成像系统和方法
CN1804566A (zh) 基于分光棱镜的视场偏移哈特曼波前传感器
CN108459417A (zh) 一种单目窄带多光谱立体视觉系统及其使用方法
CN115327684B (zh) 超构透镜,三维成像系统、方法、电子设备及存储介质
CN115456923A (zh) 基于高光谱和多光谱图像融合生成高光谱图像的方法及系统
Feng et al. Reduction of artefacts and noise for a wavefront coding athermalized infrared imaging system
Ishihara et al. Depth estimation using spectrally varying defocus blur
CN109102476B (zh) 一种基于弥散圆拟合的多光谱图像散焦模糊核估计方法
Guo Efficient Passive Ranging with Computational Optics
CN116016952B (zh) 用于光学成像系统的图像编解码模型的训练方法
Jin et al. Point spread function for the wide-field-of-view plenoptic cameras
Li et al. Lensless camera: Unraveling the breakthroughs and prospects
RU2782980C1 (ru) Устройство и способ формирования изображения с обеспечением увеличенной глубины изображаемого пространства (варианты)

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20220607

Assignee: Weiwu Photon (Beijing) Technology Co.,Ltd.

Assignor: TSINGHUA University

Contract record no.: X2023980037583

Denomination of invention: A monocular snapshot deep polarization four-dimensional imaging method and system

License type: Common License

Record date: 20230704

EE01 Entry into force of recordation of patent licensing contract