CN106373152A - 一种基于手持式光场相机的距离估计方法 - Google Patents
一种基于手持式光场相机的距离估计方法 Download PDFInfo
- Publication number
- CN106373152A CN106373152A CN201610828558.8A CN201610828558A CN106373152A CN 106373152 A CN106373152 A CN 106373152A CN 201610828558 A CN201610828558 A CN 201610828558A CN 106373152 A CN106373152 A CN 106373152A
- Authority
- CN
- China
- Prior art keywords
- light
- main lens
- distance
- fixed point
- described main
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/957—Light-field or plenoptic cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本发明公开了一种基于手持式光场相机的距离估计方法,包括:S1:提取光场相机的参数;S2:设定参考平面以及标定点,其中标定点设置在需估计距离的物体上,获取参考平面与主镜头之间的距离;S3:将采集到的光场图像重聚焦在参考平面上,以获取主镜头与光场相机的微透镜阵列之间的距离,同时记录标定点在重聚焦图像上的成像直径;S4:将步骤S1中提取的光场相机的参数以及步骤S3中获取的主镜头与微透镜阵列之间的距离和记录的标定点在重聚焦图像上的成像直径输入到光线传播数学模型中,输出标定点的距离。本发明提出的基于手持式光场相机的距离估计方法,具有高效性以及较高的准确性。
Description
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及一种基于手持式光场相机的距离估计方法。
背景技术
光场相机在计算机视觉领域的应用引发了研究者们的广泛关注,其通过在传统相机的主镜头与传感器之间插入一块微透镜阵列,记录物体的位置与方向信息。利用光场相机拍摄的单张原始光场图像,除了能够实现数字重聚焦、视点合成、景深扩展以外,还能利用相关算法对图像上的场景进行深度估计。
研究者们现已提出大量的针对光场图像的深度估计方法,其大致可以分为两类:基于单线索的深度估计方法和基于多线索融合的深度估计方法。其中基于单线索的深度估计方法主要采用立体匹配的原理,通过搜寻提取的子孔径图像的对应区域并分析其相关性,获取可进行深度估计的单一线索;基于多线索融合的深度估计方法力图通过从光场图像数据中提取与深度相关的多种线索并进行有效融合来估计深度,比如融合子孔径图像的一致性以及模糊度这两种线索。但是,由于光场相机的基线小且子孔径图像的分辨率低,以上两类算法只能得到低精度的深度图,且算法本身的高复杂度导致深度估计效率低。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
为解决上述技术问题,本发明提出一种基于手持式光场相机的距离估计方法,具有高效性以及较高的准确性。
为达到上述目的,本发明采用以下技术方案:
本发明公开了一种基于手持式光场相机的距离估计方法,包括以下步骤:
S1:提取光场相机的参数,包括所述光场相机的主镜头的焦距、曲率半径、光瞳直径、中心厚度以及所述光场相机的微透镜的焦距;
S2:设定参考平面以及标定点,其中所述标定点设置在需估计距离的物体上,获取所述参考平面与所述主镜头之间的距离;
S3:将采集到的光场图像重聚焦在所述参考平面上,以获取所述主镜头与所述光场相机的微透镜阵列之间的距离,同时记录所述标定点在重聚焦图像上的成像直径;
S4:将步骤S1中提取的所述光场相机的参数以及步骤S3中获取的所述主镜头与所述微透镜阵列之间的距离和记录的所述标定点在重聚焦图像上的成像直径输入到光线传播数学模型中,输出所述标定点的距离。
优选地,步骤S2中设定的所述参考平面与所述标定点之间不存在遮挡关系,且所述标定点成像时不发生重叠。
优选地,步骤S3中具体包括采用下式将采集到的光场图像重聚焦在所述参考平面上:
其中,L表示光场图像,La表示重聚焦图像,下标a表示物空间的聚焦平面,在此步骤中也即所述参考平面;y={x,y}表示光场图像上的位置信息,v={u,v}表示光场图像上的方向信息,下标m表示每个微透镜下一维方向上的像素个数,c=(m-1)/2,i是整数,取值范围为[-c,c];下标j表示微透镜竖直方向上的坐标。
优选地,步骤S3中的获取所述主镜头与所述微透镜阵列之间的距离的步骤具体包括:
通过光线追迹方法得到Fu平面上各交点的坐标计算公式为:
Fi=mi×f (2)
其中,Fu平面上各交点之间的距离为光场相机的基线,f是所述主镜头的焦距,mi是所述光场相机的传感器与所述主镜头之间的光线的斜率;
所述标定点的所述物体在物空间发出的光线的斜率ki的计算公式为:
其中,yj′表示所述物体在所述参考平面上的纵坐标,dout表示所述参考平面与所述主镜头之间的距离;
根据式(3)计算得到所述物体发出的光线到达所述主镜头的入射位置和出射位置(p′,q′),根据出射位置(p′,q′)计算得到所述主镜头与所述微透镜阵列之间的距离din为:
其中,yj表示下标为j的微透镜的中心的纵坐标。
优选地,步骤S4中的光线传播数学模型具体包括光线入射部分和光线出射部分。
优选地,所述光线入射部分的传播数学模型具体包括:
所述标定点发出的光线以角度进入所述主镜头,满足关系式:
其中,d′out表示所述标定点与所述主镜头的中心的轴向距离,R表示所述主镜头的曲率半径,D表示所述主镜头的光瞳半径,T表示所述主镜头的中心厚度;所述标定点发出的光线进入所述主镜头后发生折射,满足下式:
其中,n1表示所述主镜头的折射率,ψ表示折射角,θ1满足:
优选地,所述光线出射部分的传播数学模型具体包括:
所述标定点发出的光线在所述主镜头内部进行折射后到达所述主镜头的出射位置(p,q),并从出射位置(p,q)处出射,满足下式:
n1sin(θ1-ψ+θ2)=sinω (8)
其中,ω表示出射角,θ2满足:
所述标定点发出的光线在所述主镜头出射后有三种成像方式,分别为聚焦在所述传感器后方、所述传感器与所述微透镜阵列之间或者所述微透镜阵列与所述主镜头之间,其中:
当所述标定点发出的光线在所述主镜头出射后聚焦在所述传感器后方时,满足下式:
其中,D1为步骤S3中记录的所述标定点在重聚焦图像上的成像直径,fx为微透镜的焦距,din为步骤S3中获取的所述主镜头与所述微透镜阵列之间的距离,d为所述标定点在像空间的聚焦平面与所述传感器之间的距离;出射位置(p,q)在所述主镜头的曲面上,满足下式:
(R-T/2+p)2+q2=R2 (12)
当所述标定点发出的光线在所述主镜头出射后聚焦在所述传感器与所述微透镜阵列之间或者所述微透镜阵列与所述主镜头之间时,满足下式:
其中,D1为步骤S3中记录的所述标定点在重聚焦图像上的成像直径,fx为微透镜的焦距,din为步骤S3中获取的所述主镜头与所述微透镜阵列之间的距离,d为所述标定点在像空间的聚焦平面与所述传感器之间的距离;出射位置(p,q)在所述主镜头的曲面上,满足下式:
(R-T/2+p)2+q2=R2 (15)。
与现有技术相比,本发明的有益效果在于:本发明的基于手持式光场相机的距离估计方法,将拍摄得到的光场图像重聚焦在已知距离的参考平面上,该重聚焦图像相当于对光场相机进行调焦后拍摄得到的光场图像,由于已知拍摄物(参考平面)的距离,可以进一步求得光场相机的主镜头与微透镜阵列之间的距离,其他所有非聚焦的物体相当于被此调焦后的光场相机拍摄后在传感器上成像。因此,将标定点设置在需估计距离的物体(非聚焦),通过分析标定点在重聚焦图像上的成像直径与标定点的距离之间的关系,从而估计出物体的距离;该距离估计方法可以通过一次重聚焦就能够估计出所有物体的绝对距离,具有高效性且大大提高了距离估计的准确性,在工业测距上有很好的应用前景。
附图说明
图1是本发明优选实施例的基于手持式光场相机的距离估计方法流程图;
图2是本发明优选实施例的光线入射模型;
图3是本发明优选实施例的光线出射模型;
图4是本发明优选实施例的标定点的成像方式;
图5是本发明优选实施例的重聚焦的光线追迹模型。
具体实施方式
下面对照附图并结合优选的实施方式对本发明作进一步说明。
如图1所示,本发明的优选实施例公开了一种基于手持式光场相机的距离估计方法,包括以下步骤:
S1:提取光场相机的参数,包括光场相机的主镜头的焦距、曲率半径、光瞳直径、中心厚度以及光场相机的微透镜的焦距;
其中主镜头的焦距与微透镜的焦距用于获取主镜头与微透镜阵列之间的距离,主镜头的曲率半径、光瞳直径、中心厚度以及微透镜的焦距用于光线传播数学模型。
S2:设定参考平面以及标定点,其中所述标定点设置在需估计距离的物体上,获取所述参考平面与所述主镜头之间的距离;
其中设定的参考平面与标定点之间不存在遮挡关系,所述标定点成像时不发生重叠;参考平面与主镜头之间的距离用于重聚焦,同时用于获取重聚焦后主镜头与微透镜阵列之间的距离。
S3:将采集到的光场图像重聚焦在所述参考平面上,以获取主镜头与光场相机的微透镜阵列之间的距离,同时记录标定点在重聚焦图像上的成像直径;
(1)重聚焦公式可表述为:
其中,L表示光场图像,La表示重聚焦图像,下标a表示物空间的聚焦平面,在此步骤中也即为参考平面;y={x,y}表示光场图像上的位置信息,v={u,v}表示光场图像上的方向信息,下标m表示微透镜图像的分辨率,即每个微透镜下一维方向上的像素个数,c=(m-1)/2,i是整数,取值范围为[-c,c];下标j表示微透镜竖直方向上的坐标,取值从0开始。
进行一次重聚焦后得到的图像相当于对光场相机进行调焦后拍摄得到的光场图像,此时其他非聚焦的物体在重聚焦图像上的像相当于用此调焦后的光场相机拍摄得到;而这些非聚焦物体所在的平面即为图4所示的平面a′,将平面a′上的物体发射出来的光线在传感器上的成像直径,即重聚焦图像上的成像直径D1记录下来。
(2)结合图4和图5所示,由于重聚焦平面是设定的参考平面(平面a),该平面与主镜头1之间的距离dout已知。光线追迹方法表明,Fu平面上各交点之间的距离为光场相机的基线。Fu平面上各交点的坐标计算公式为:
Fi=mi×f (2)
其中,f是主镜头1的焦距,mi是传感器3与主镜头1之间的光线的斜率;只要微透镜的焦距、直径以及每个微透镜下覆盖的像素个数已知,mi即可求出。则物体在物空间发出的光线的斜率ki,其计算公式为:
其中y′j表示物体在平面a(即参考平面)上的纵坐标。继而,我们可以算出物体发出的光线到达主镜头1的入射位置和出射位置(p′,q′)。因此,主镜头1与微透镜阵列2之间的距离din的计算公式为:
其中yj表示下标为j的微透镜的中心的纵坐标。
S4:将步骤S1中提取的光场相机的参数以及步骤S3中获取的主镜头与微透镜阵列之间的距离和记录的标定点在重聚焦图像上的成像直径输入到光线传播数学模型中,输出标定点的距离;
S41:光线传播数学模型分为两部分:光线入射部分以及光线出射部分。
(1)光线入射部分:如图2所示,标定点发出的光线以角度进入主镜头,满足关系式:
其中d′out表示标定点与光场相机主镜头中心的轴向距离;R、D、T是主镜头的参数,分别表示主镜头的曲率半径、光瞳直径以及中心厚度。进入主镜头后光线发生折射,利用折射公式得到:
其中,n1表示主镜头的折射率,ψ为折射角,θ1满足:
(2)光线出射部分:如图3所示,光线在主镜头内部进行折射后到达主镜头的(p,q)位置,进而从(p,q)处出射,再次利用折射公式得到:
n1sin(θ1-ψ+θ2)=sinω (8)
其中ω是出射角,θ2满足:
S42:光线出射后有三种成像方式,如图4中4A、4B、4C三条光线所示,它们会分别聚焦在传感器3后方(4A),传感器3与微透镜阵列2之间(4B),微透镜阵列2与主镜头1之间(4C)。
当光线聚焦在传感器3的后方时,即光线4A的成像情况,分析主镜头1、微透镜阵列2以及传感器3的几何关系,使用相似三角形并做近似,得到:
其中D1为步骤S3中记录的标定点的成像直径;fx为微透镜的焦距;din为主镜头1与微透镜阵列2之间的距离;d为标定点在像空间的聚焦平面与传感器之间的距离。光线的出射位置(p,q)在主镜头的曲面上,因此满足以下关系式:
(R-T/2+p)2+q2=R2 (12)
当光线聚焦在传感器3与微透镜阵列2之间或者微透镜阵列2与主镜头1之间时,即光线4B、4C两种成像情况,同样使用相似三角形并做近似,得到:
(R-T/2+p)2+q2=R2 (15)
S43:输入重聚焦后光场相机主镜头与微透镜阵列之间的距离din和标定点的成像直径D1,
对于光线聚焦在传感器3的后方时,即光线4A的成像情况,利用公式(10)可近似求得d:
将计算出的d代入公式(11),联合公式(12)算出p和q。将q代入公式(9)计算得到θ2:
然后将得到的θ2代入到公式(11)中计算得到ω:
再利用公式(7)、(8)、(6)依次得到角度θ1、ψ和
最后再利用公式(5)算出标定点的绝对距离d′out:
对于光线聚焦在传感器3与微透镜阵列2之间或者微透镜阵列2与主镜头1之间时,即光线4B、4C两种成像情况,利用公式(13)可近似计算出d:
将计算出的d代入公式(14),联合公式(15)算出p和q。之后所有角度的求解公式同上所述(17)-(21),最后利用公式(5)算出标定点的绝对距离d′out。
本发明的优选实施例的基于手持式光场相机的距离估计方法首先将拍摄到的光场图像重聚焦在已知距离的参考平面上,该聚焦图像相当于光场相机进行调焦后拍摄得到的光场图像;由于已知拍摄物(参考平面)的距离,可以进一步求得光场相机的主镜头与微透镜阵列之间的距离,则其他所有非聚焦的物体相当于被此调焦后的光场相机拍摄后在传感器上成像。因此,将标定点设置在需估计距离的物体上(非聚焦),通过分析标定点在重聚焦图像上的成像直径与标定点的距离之间的关系,估计出物体的距离。具体的实施步骤为:提取光场相机参数,包括主镜头的焦距、曲率半径、光瞳直径和中心厚度,以及微透镜的焦距;设定参考平面及标定点,其中标定点设置在需估计距离的物体上,获取参考平面与光场相机主镜头之间的距离;将采集到的光场图像重聚焦在参考平面上,获取光场相机主镜头与微透镜阵列之间的距离,同时记录标定点在重聚焦图像上的成像直径;分析光场相机的成像系统后,提出光线传播数学模型;将光场相机参数、成像直径以及得到的主镜头与微透镜阵列之间的距离输入到光线传播数学模型中,输出标定点的距离。由于标定点在物体上,因此估计出的标定点的距离即为物体的距离。通过本发明的距离估计方法能够经过一次重聚焦就估计出所有物体与光场相机的主镜头之间的绝对距离,具有高效性以及较高的准确性,其高效性以及准确性使得本发明的方法在工业测距有很大的应用前景。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变形,而且性能或用途相同,都应当视为属于本发明的保护范围。
Claims (7)
1.一种基于手持式光场相机的距离估计方法,其特征在于,包括以下步骤:
S1:提取光场相机的参数,包括所述光场相机的主镜头的焦距、曲率半径、光瞳直径、中心厚度以及所述光场相机的微透镜的焦距;
S2:设定参考平面以及标定点,其中所述标定点设置在需估计距离的物体上,获取所述参考平面与所述主镜头之间的距离;
S3:将采集到的光场图像重聚焦在所述参考平面上,以获取所述主镜头与所述光场相机的微透镜阵列之间的距离,同时记录所述标定点在重聚焦图像上的成像直径;
S4:将步骤S1中提取的所述光场相机的参数以及步骤S3中获取的所述主镜头与所述微透镜阵列之间的距离和记录的所述标定点在重聚焦图像上的成像直径输入到光线传播数学模型中,输出所述标定点的距离。
2.根据权利要求1所述的距离估计方法,其特征在于,步骤S2中设定的所述参考平面与所述标定点之间不存在遮挡关系,且所述标定点成像时不发生重叠。
3.根据权利要求1所述的距离估计方法,其特征在于,步骤S3中具体包括采用下式将采集到的光场图像重聚焦在所述参考平面上:
其中,L表示光场图像,La表示重聚焦图像,下标a表示所述参考平面;y={x,y}表示光场图像上的位置信息,v={u,v}表示光场图像上的方向信息,下标m表示每个微透镜下一维方向上的像素个数,c=(m-1)/2,i是整数,取值范围为[-c,c];下标j表示微透镜竖直方向上的坐标。
4.根据权利要求3所述的距离估计方法,其特征在于,步骤S3中的获取所述主镜头与所述微透镜阵列之间的距离的步骤具体包括:
通过光线追迹方法得到Fu平面上各交点的坐标计算公式为:
Fi=mi×f (2)
其中,Fu平面上各交点之间的距离为光场相机的基线,f是所述主镜头的焦距,mi是所述光场相机的传感器与所述主镜头之间的光线的斜率;
所述标定点的所述物体在物空间发出的光线的斜率ki的计算公式为:
其中,y′j表示所述物体在所述参考平面上的纵坐标,dout表示所述参考平面与所述主镜头之间的距离;
根据式(3)计算得到所述物体发出的光线到达所述主镜头的入射位置和出射位置(p′,q′),根据出射位置(p′,q′)计算得到所述主镜头与所述微透镜阵列之间的距离din为:
其中,yj表示下标为j的微透镜的中心的纵坐标。
5.根据权利要求1至4任一项所述的距离估计方法,其特征在于,步骤S4中的光线传播数学模型具体包括光线入射部分和光线出射部分。
6.根据权利要求5所述的距离估计方法,其特征在于,所述光线入射部分的传播数学模型具体包括:
所述标定点发出的光线以角度进入所述主镜头,满足关系式:
其中,d′out表示所述标定点与所述主镜头的中心的轴向距离,R表示所述主镜头的曲率半径,D表示所述主镜头的光瞳半径,T表示所述主镜头的中心厚度;所述标定点发出的光线进入所述主镜头后发生折射,满足下式:
其中,n1表示所述主镜头的折射率,ψ表示折射角,θ1满足:
7.根据权利要求6所述的距离估计方法,其特征在于,所述光线出射部分的传播数学模型具体包括:
所述标定点发出的光线在所述主镜头内部进行折射后到达所述主镜头的出射位置(p,q),并从出射位置(p,q)处出射,满足下式:
n1sin(θ1-ψ+θ2)=sinω (8)
其中,ω表示出射角,θ2满足:
所述标定点发出的光线在所述主镜头出射后有三种成像方式,分别为聚焦在所述传感器后方、所述传感器与所述微透镜阵列之间或者所述微透镜阵列与所述主镜头之间,其中:
当所述标定点发出的光线在所述主镜头出射后聚焦在所述传感器后方时,满足下式:
其中,D1为步骤S3中记录的所述标定点在重聚焦图像上的成像直径,fx为微透镜的焦距,din为步骤S3中获取的所述主镜头与所述微透镜阵列之间的距离,d为所述标定点在像空间的聚焦平面与所述传感器之间的距离;出射位置(p,q)在所述主镜头的曲面上,满足下式:
(R-T/2+p)2+q2=R2 (12)
当所述标定点发出的光线在所述主镜头出射后聚焦在所述传感器与所述微透镜阵列之间或者所述微透镜阵列与所述主镜头之间时,满足下式:
其中,D1为步骤S3中记录的所述标定点在重聚焦图像上的成像直径,fx为微透镜的焦距,din为步骤S3中获取的所述主镜头与所述微透镜阵列之间的距离,d为所述标定点在像空间的聚焦平面与所述传感器之间的距离;出射位置(p,q)在所述主镜头的曲面上,满足下式:
(R-T/2+p)2+q2=R2 (15)。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610828558.8A CN106373152B (zh) | 2016-09-18 | 2016-09-18 | 一种基于手持式光场相机的距离估计方法 |
PCT/CN2017/096573 WO2018049949A1 (zh) | 2016-09-18 | 2017-08-09 | 一种基于手持式光场相机的距离估计方法 |
US16/212,344 US10482617B2 (en) | 2016-09-18 | 2018-12-06 | Distance estimation method based on handheld light field camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610828558.8A CN106373152B (zh) | 2016-09-18 | 2016-09-18 | 一种基于手持式光场相机的距离估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106373152A true CN106373152A (zh) | 2017-02-01 |
CN106373152B CN106373152B (zh) | 2019-02-01 |
Family
ID=57897614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610828558.8A Active CN106373152B (zh) | 2016-09-18 | 2016-09-18 | 一种基于手持式光场相机的距离估计方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10482617B2 (zh) |
CN (1) | CN106373152B (zh) |
WO (1) | WO2018049949A1 (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107230232A (zh) * | 2017-04-27 | 2017-10-03 | 东南大学 | 聚焦型光场相机的f数匹配方法 |
CN107610170A (zh) * | 2017-08-04 | 2018-01-19 | 中国科学院自动化研究所 | 多目图像重聚焦的深度获取方法及系统 |
WO2018049949A1 (zh) * | 2016-09-18 | 2018-03-22 | 清华大学深圳研究生院 | 一种基于手持式光场相机的距离估计方法 |
CN108364309A (zh) * | 2018-02-09 | 2018-08-03 | 清华大学深圳研究生院 | 一种基于手持式光场相机的空间光场恢复方法 |
CN109089025A (zh) * | 2018-08-24 | 2018-12-25 | 中国民航大学 | 一种基于光场成像技术的影像仪数字聚焦方法 |
CN109239698A (zh) * | 2018-08-02 | 2019-01-18 | 华勤通讯技术有限公司 | 摄像头测距方法及电子设备 |
CN109883391A (zh) * | 2019-03-20 | 2019-06-14 | 北京环境特性研究所 | 基于微透镜阵列数字成像的单目测距方法 |
CN110009693A (zh) * | 2019-04-01 | 2019-07-12 | 清华大学深圳研究生院 | 一种光场相机的快速盲标定方法 |
CN110673121A (zh) * | 2019-09-26 | 2020-01-10 | 北京航空航天大学 | 光场相机前置镜焦平面定位方法和装置 |
CN111258046A (zh) * | 2020-02-26 | 2020-06-09 | 清华大学 | 基于前置微透镜阵列的光场显微系统及方法 |
CN115032756A (zh) * | 2022-06-07 | 2022-09-09 | 北京拙河科技有限公司 | 一种光场相机的微透镜阵列定位方法及系统 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102689953B1 (ko) * | 2018-12-03 | 2024-07-31 | 삼성전자주식회사 | 캘리브레이션 방법 및 장치 |
CN110310337B (zh) * | 2019-06-24 | 2022-09-06 | 西北工业大学 | 一种基于光场基本矩阵的多视光场成像系统全参数估计方法 |
CN111679337B (zh) * | 2019-10-15 | 2022-06-10 | 上海大学 | 一种水下主动激光扫描成像系统中散射背景抑制方法 |
CN114858053B (zh) * | 2021-01-20 | 2023-03-10 | 四川大学 | 一种确定工业相机的入瞳中心空间坐标的方法 |
CN114051087A (zh) * | 2021-11-11 | 2022-02-15 | 中汽创智科技有限公司 | 一种多传感器相机 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103209307A (zh) * | 2013-04-18 | 2013-07-17 | 清华大学 | 编码重聚焦计算摄像方法及装置 |
CN104050662A (zh) * | 2014-05-30 | 2014-09-17 | 清华大学深圳研究生院 | 一种用光场相机一次成像直接获取深度图的方法 |
CN105551050A (zh) * | 2015-12-29 | 2016-05-04 | 深圳市未来媒体技术研究院 | 一种基于光场的图像深度估计方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8189065B2 (en) * | 2008-01-23 | 2012-05-29 | Adobe Systems Incorporated | Methods and apparatus for full-resolution light-field capture and rendering |
EP3144879A1 (en) * | 2015-09-17 | 2017-03-22 | Thomson Licensing | A method and an apparatus for generating data representative of a light field |
CN106373152B (zh) * | 2016-09-18 | 2019-02-01 | 清华大学深圳研究生院 | 一种基于手持式光场相机的距离估计方法 |
-
2016
- 2016-09-18 CN CN201610828558.8A patent/CN106373152B/zh active Active
-
2017
- 2017-08-09 WO PCT/CN2017/096573 patent/WO2018049949A1/zh active Application Filing
-
2018
- 2018-12-06 US US16/212,344 patent/US10482617B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103209307A (zh) * | 2013-04-18 | 2013-07-17 | 清华大学 | 编码重聚焦计算摄像方法及装置 |
CN104050662A (zh) * | 2014-05-30 | 2014-09-17 | 清华大学深圳研究生院 | 一种用光场相机一次成像直接获取深度图的方法 |
CN105551050A (zh) * | 2015-12-29 | 2016-05-04 | 深圳市未来媒体技术研究院 | 一种基于光场的图像深度估计方法 |
Non-Patent Citations (3)
Title |
---|
DONALD G. DANSEREAU,ET,AL.: "Decoding, Calibration and Rectification for Lenselet-Based Plenoptic Cameras", 《2013 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
张旭等: "微透镜阵列式光场成像模型及其标定方法", 《光学学报》 * |
张春萍等: "光场相机成像模型及参数标定方法综述", 《中国激光》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10482617B2 (en) | 2016-09-18 | 2019-11-19 | Graduate School At Shenzhen, Tsinghua University | Distance estimation method based on handheld light field camera |
WO2018049949A1 (zh) * | 2016-09-18 | 2018-03-22 | 清华大学深圳研究生院 | 一种基于手持式光场相机的距离估计方法 |
CN107230232A (zh) * | 2017-04-27 | 2017-10-03 | 东南大学 | 聚焦型光场相机的f数匹配方法 |
CN107230232B (zh) * | 2017-04-27 | 2020-06-30 | 东南大学 | 聚焦型光场相机的f数匹配方法 |
CN107610170A (zh) * | 2017-08-04 | 2018-01-19 | 中国科学院自动化研究所 | 多目图像重聚焦的深度获取方法及系统 |
CN108364309B (zh) * | 2018-02-09 | 2020-09-01 | 清华大学深圳研究生院 | 一种基于手持式光场相机的空间光场恢复方法 |
CN108364309A (zh) * | 2018-02-09 | 2018-08-03 | 清华大学深圳研究生院 | 一种基于手持式光场相机的空间光场恢复方法 |
CN109239698A (zh) * | 2018-08-02 | 2019-01-18 | 华勤通讯技术有限公司 | 摄像头测距方法及电子设备 |
CN109239698B (zh) * | 2018-08-02 | 2022-12-20 | 华勤技术股份有限公司 | 摄像头测距方法及电子设备 |
CN109089025A (zh) * | 2018-08-24 | 2018-12-25 | 中国民航大学 | 一种基于光场成像技术的影像仪数字聚焦方法 |
CN109883391A (zh) * | 2019-03-20 | 2019-06-14 | 北京环境特性研究所 | 基于微透镜阵列数字成像的单目测距方法 |
CN109883391B (zh) * | 2019-03-20 | 2021-09-24 | 北京环境特性研究所 | 基于微透镜阵列数字成像的单目测距方法 |
CN110009693A (zh) * | 2019-04-01 | 2019-07-12 | 清华大学深圳研究生院 | 一种光场相机的快速盲标定方法 |
CN110009693B (zh) * | 2019-04-01 | 2020-12-11 | 清华大学深圳研究生院 | 一种光场相机的快速盲标定方法 |
CN110673121A (zh) * | 2019-09-26 | 2020-01-10 | 北京航空航天大学 | 光场相机前置镜焦平面定位方法和装置 |
CN111258046A (zh) * | 2020-02-26 | 2020-06-09 | 清华大学 | 基于前置微透镜阵列的光场显微系统及方法 |
CN115032756A (zh) * | 2022-06-07 | 2022-09-09 | 北京拙河科技有限公司 | 一种光场相机的微透镜阵列定位方法及系统 |
CN115032756B (zh) * | 2022-06-07 | 2022-12-27 | 北京拙河科技有限公司 | 一种光场相机的微透镜阵列定位方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US10482617B2 (en) | 2019-11-19 |
US20190114796A1 (en) | 2019-04-18 |
WO2018049949A1 (zh) | 2018-03-22 |
CN106373152B (zh) | 2019-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106373152A (zh) | 一种基于手持式光场相机的距离估计方法 | |
JP7523492B2 (ja) | ライト・フィールドを表すデータを生成する方法および装置 | |
JP4915859B2 (ja) | 物体の距離導出装置 | |
WO2019015154A1 (zh) | 基于单目三维扫描系统的三维重构方法和装置 | |
US8260074B2 (en) | Apparatus and method for measuring depth and method for computing image defocus and blur status | |
US5521695A (en) | Range estimation apparatus and method | |
US8400494B2 (en) | Method and system for object reconstruction | |
CN201043890Y (zh) | 单孔径多重成像的光学成像测距装置 | |
KR20190065432A (ko) | 뷰로부터 거리 정보를 획득하는 장치 및 방법 | |
CN107480613A (zh) | 人脸识别方法、装置、移动终端和计算机可读存储介质 | |
CN103793911A (zh) | 一种基于集成图像技术的场景深度获取方法 | |
JP2001194114A (ja) | 画像処理装置および画像処理方法、並びにプログラム提供媒体 | |
CN103986854B (zh) | 图像处理设备、摄像设备和控制方法 | |
CN107491744A (zh) | 人体身份识别方法、装置、移动终端和存储介质 | |
WO2020024079A1 (zh) | 图像识别系统 | |
EP3182372B1 (en) | Method and system for estimating the position of a projection of a chief ray on a sensor of a light-field acquisition device | |
Zeller et al. | Metric calibration of a focused plenoptic camera based on a 3D calibration target | |
US10096113B2 (en) | Method for designing a passive single-channel imager capable of estimating depth of field | |
KR20180054737A (ko) | 픽셀 빔을 나타내는 데이터를 생성하기 위한 장치 및 방법 | |
JP7300895B2 (ja) | 画像処理装置および画像処理方法、プログラム、並びに記憶媒体 | |
JP2004294439A5 (zh) | ||
JP7075892B2 (ja) | ピクセルビームを表すデータを生成する装置および方法 | |
KR20180053718A (ko) | 픽셀 빔을 나타내는 데이터를 생성하기 위한 장치 및 방법 | |
CN111272271A (zh) | 振动测量方法、系统、计算机设备和存储介质 | |
CN106846469A (zh) | 基于特征点追踪由聚焦堆栈重构三维场景的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |