CN107545586B - 基于光场极线平面图像局部的深度获取方法及系统 - Google Patents

基于光场极线平面图像局部的深度获取方法及系统 Download PDF

Info

Publication number
CN107545586B
CN107545586B CN201710662707.2A CN201710662707A CN107545586B CN 107545586 B CN107545586 B CN 107545586B CN 201710662707 A CN201710662707 A CN 201710662707A CN 107545586 B CN107545586 B CN 107545586B
Authority
CN
China
Prior art keywords
viewpoint
image
light field
cost function
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710662707.2A
Other languages
English (en)
Other versions
CN107545586A (zh
Inventor
裴仁静
耿征
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201710662707.2A priority Critical patent/CN107545586B/zh
Publication of CN107545586A publication Critical patent/CN107545586A/zh
Application granted granted Critical
Publication of CN107545586B publication Critical patent/CN107545586B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明涉及一种基于光场极线平面图像局部的深度获取方法及系统,所述深度获取方法包括:通过多个相机构成相机阵列,对真实场景进行采集,获得相机阵列视点图像;通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。本发明通过多基线视点图像对相机阵列视点图像进行校正得到3D光场,基于代价函数计算像素的深度,将3D光场极线平面图像局部以及全局代价函数相结合,以利用整体图像信息,减小在深度跳变处深度估计的误差,提高估计的准确度。

Description

基于光场极线平面图像局部的深度获取方法及系统
技术领域
本发明涉及计算机图像处理技术领域,具体涉及一种基于光场极线平面图像局部的深度获取方法及系统。
背景技术
随着科学技术和人类认识世界需求的不断发展,传统的二维图像已经不能满足人们对于物体识别的要求。与灰度图像相比,深度图像具有物体三维特性信息,即深度信息。深度图获取对于在场景理解、自由视点视频绘制、三维显示等领域有着关键性引导作用。目前,基于相机阵列的深度图初获取方法中,通常是构建一个Cost-Volume(成本量),依次根据每个相机的内外参数,将参考图像投影到其余相机捕获的非参考图像上,进行像素差值比较提取深度的方法。
但是目前的深度获取方法并没有完全利用整体的各相机图像信息,并且消耗时间长;
在深度跳变处即物体边缘处,深度估计误差较大。
发明内容
为了解决现有技术中的上述问题,即为了解决在深度跳变处估计误差大的不足的问题,本发明提供一种基于光场极线平面图像局部的深度获取方法及系统。
为解决上述技术问题,本发明提供了如下方案:
一种基于光场极线平面图像局部的深度获取方法,所述深度获取方法包括:
通过多个相机构成相机阵列,对真实场景进行采集,获得相机阵列视点图像;
通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。
可选的,所述通过多基线视点图像对相机阵列视点图像进行校正,具体包括:
采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
将各个光心位置按照几何关系投影到虚拟基线上;
利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
可选的,所述虚拟基线为到各个相机的光心位置距离和最小的一条基线。
可选的,所述计算所述3D光场中参考图像上的每一个像素的深度,具体包括:
通过沿着3D光场极线平面(EPI,epipolar plane image)中的线性结构移动参考图像上的每个像素至其他视点图像;所述其他视点图像为除所述移动的像素对应的视点图像以外的视点图像;
计算移动的像素与其他视点图像上像素的像素值差异;
根据各所述像素值差异确定代价函数的最小值,所述代价函数最小值对应的深度信息可信度最高。
可选的,所述根据各所述像素值差异确定代价函数的最小值,具体包括:
根据以下公式,分别计算右局部视点的代价函数cos tr、左局部视点的代价函数cos tl,以及全局的代价函数cos t:
Figure GDA0002249511610000021
其中,V表示视点图像的序列号,N表示视点图像的个数,Ref表示参考图像的序列号,VRef表示参考图像,LF(x,y,VRef)表示光场中的点(x,y,VRef),
Figure GDA0002249511610000022
为通过沿着线性结构移动将LF(x,y,VRef)移动到其他视点图像上的像素点,k表示极线平面图像上的线性结构的斜率;
根据以下公式,分别将所述右局部视点的代价函数cos tr、左局部视点的代价函数cos tl及全局的代价函数cos t进行比较,确定最终的代价函数CLF
Figure GDA0002249511610000031
根据以下公式,选择所述最终的代价函数CLF的最小值,确定所述参考图像上的每一个像素的深度dp
Figure GDA0002249511610000033
可选的,根据以下公式,计算所述极线平面图像上的线性结构的深度信息k:
Figure GDA0002249511610000032
其中,其中DISPARITY代表的是相邻两视点间的视差,baseline是相邻两相机之间的基线长度,f代表的是相机的焦距,d代表了参考图像上的每个像素的深度值。
可选的,所述相机的数量为7个。
可选的,各所述相机的分辨率为1024×768。
为解决上述技术问题,本发明还提供了如下方案:
一种基于光场极线平面图像局部的深度获取系统,其特征在于,所述获取系统包括:
相机阵列,由多个相机构成,用于对真实场景进行采集,获得相机阵列视点图像;
校正单元,用于通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
计算单元,用于基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。
可选的,所述校正单元包括:
标定模块,用于采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
投影模块,用于将各个光心位置按照几何关系投影到虚拟基线上;
校正模块,用于利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
构建模块,用于将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
根据本发明的实施例,本发明公开了以下技术效果:
本发明通过多基线视点图像对相机阵列视点图像进行校正得到3D光场,基于代价函数计算像素的深度,将3D光场极线平面图像局部以及全局代价函数相结合,以利用整体图像信息,减小在深度跳变处深度估计的误差,提高估计的准确度。
附图说明
图1是本发明基于光场极线平面图像局部的深度获取方法的流程图;
图2(a)-图2(c)为3D光场图;
图3是本发明基于光场极线平面图像局部的深度获取系统的模块结构示意图。
符号说明:
相机阵列—1,校正单元—2,计算单元—3。
具体实施方式
下面参照附图来描述本发明的优选实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非旨在限制本发明的保护范围。
本发明提供一种基于光场极线平面图像局部的深度获取方法,通过多基线视点图像对相机阵列视点图像进行校正得到3D光场,基于代价函数计算像素的深度,将3D光场极线平面图像局部以及全局代价函数相结合,以利用整体图像信息,减小在深度跳变处深度估计的误差,提高估计的准确度。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明基于光场极线平面图像局部的深度获取方法包括:
步骤100:通过多个相机构成相机阵列,对真实场景进行采集,获得相机阵列视点图像;
步骤200:通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
步骤300:基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。
在本实施例中,共设置有7个相机,即所述相机阵列由7个Microsoft cameras构成。进一步地,每个相机的分辨率可为1024×768。
在步骤200中,所述通过多基线视点图像对相机阵列视点图像进行校正,具体包括:
步骤201:采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线。所述虚拟基线为到各个相机的光心位置距离和最小的一条基线。
步骤202:将各个光心位置按照几何关系投影到虚拟基线上。
步骤203:利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵。
步骤204:将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
其中,如图2(a)-图2(c)所示,在所述3D光场中,V表示视点图像的序列号,LF(x,y,VRef)表示光场中的点(x,y,VRef),VRef表示参考图像(reference image),IRef代表的是参考图像的序列号,x-V平面代表的是3D光场极线平面图像(EPI,epi-polar plane image),在IRef上通过点p(x,y,VRef)的线l(x,y,VRef)代表的是EPI上的线性结构,该线性结构包含了深度信息(即斜率):
Figure GDA0002249511610000051
DISPARITY代表的是相邻两视点间的视差,baseline是相邻两相机之间的基线长度,f代表的是相机的焦距,d代表了IRef的每个像素的深度值。
可以由线性结构,将某个视点图像上的某个点传递至另外的视点图像上。以极线平面图像EPIy为例,视点图IV0上的点(x,V0)可以被传递至视点图IV1上的点
Figure GDA0002249511610000061
上。
在步骤300中,所述计算所述3D光场中参考图像上的每一个像素的深度,具体包括:
步骤301:通过沿着3D光场极线平面中的线性结构移动参考图像上的每个像素至其他视点图像。所述其他视点图像为除所述移动的像素对应的视点图像以外的视点图像。
步骤302:计算移动的像素与其他视点图像上像素的像素值差异。
步骤303:根据各所述像素值差异确定代价函数的最小值,所述代价函数最小值对应的深度信息可信度最高。
其中,对于IRef上的每一个像素(x,y),我们可以通过沿着线性结构移动每个像素至其他的视点图像,并计算出该移动像素的值与原其他的视点图像上的像素值的差异。将所有像素的平均的L1正则差异作为代价函数CLF。为每一个像素找到一个k,使得代价函数CLF最小:
Figure GDA0002249511610000062
其中,N代表了视点图像的个数。然而该代价函数很容易使得深度跳跃处的深度估计不准确。
为提高深度估计的准确性,分别计算右局部视点的代价函数cos tr、左局部视点的代价函数cos tl,以及全局的代价函数cos t。具体的,在步骤303中,所述根据各所述像素值差异确定代价函数的最小值,具体包括:
步骤303a:根据公式(3),分别计算右局部视点的代价函数cos tr、左局部视点的代价函数cos tl,以及全局的代价函数cos t:
Figure GDA0002249511610000071
其中,V表示视点图像的序列号,N表示视点图像的个数,Ref表示,VRef表示参考图像,LF(x,y,VRef)表示光场中的点(x,y,VRef),
Figure GDA0002249511610000072
为通过沿着线性结构移动将LF(x,y,VRef)移动到其他视点图像上的像素点,k表示极线平面图像上的线性结构的深度信息。
步骤303b:根据公式(4),分别将所述右局部视点的代价函数cos tr、左局部视点的代价函数cos tl及全局的代价函数cos t进行比较,确定最终的代价函数CLF
Figure GDA0002249511610000073
步骤303c:根据公式(5),选择所述最终的代价函数CLF的最小值,确定所述参考图像上的每一个像素的深度dp
Figure GDA0002249511610000074
通过对公式(1)的转化,得到参考图像上的每个像素p的深度。
此外,本发明还提供一种基于光场极线平面图像局部的深度获取系统,可减小在深度跳变处估计的误差,提高估计的准确度。如图3所示,本发明基于光场极线平面图像局部的深度获取系统包括相机阵列1、校正单元2及计算单元3。
其中,所述相机阵列1由多个相机构成,用于对真实场景进行采集,获得相机阵列视点图像;
所述校正单元2用于通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
所述计算单元3用于基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。
进一步地,所述校正单元2包括标定模块、投影模块、校正模块及构建模块。
所述标定模块用于采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
所述投影模块,用于将各个光心位置按照几何关系投影到虚拟基线上;
所述校正模块,用于利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
所述构建模块,用于将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
相对于现有技术,本发明基于光场极线平面图像局部的深度获取系统与上述基于光场极线平面图像局部的深度获取方法的有益效果相同,在此不再赘述。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

Claims (8)

1.一种基于光场极线平面图像局部的深度获取方法,其特征在于,所述深度获取方法包括:
通过多个相机构成相机阵列,对真实场景进行采集,获得相机阵列视点图像;
通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度;
其中,所述计算所述3D光场中参考图像上的每一个像素的深度,具体包括:
通过沿着3D光场极线平面中的线性结构移动参考图像上的每个像素至其他视点图像;所述其他视点图像为除所述移动的像素对应的视点图像以外的视点图像;
计算移动的像素与其他视点图像上像素的像素值差异;
根据各所述像素值差异确定代价函数的最小值,所述代价函数最小值对应的深度信息可信度最高;
其中,所述根据各所述像素值差异确定代价函数的最小值,具体包括:
根据以下公式,分别计算右局部视点的代价函数costr、左局部视点的代价函数costl,以及全局的代价函数cost:
Figure FDA0002249511600000011
其中,V表示视点图像的序列号,N表示视点图像的个数,Ref表示参考图像的序列号,VRef表示参考图像,LF(x,y,VRef)表示光场中的点(x,y,VRef),
Figure FDA0002249511600000012
为通过沿着线性结构移动将LF(x,y,VRef)移动到其他视点图像上的像素点,k表示极线平面图像上的线性结构的斜率;
根据以下公式,分别将所述右局部视点的代价函数costr、左局部视点的代价函数costl及全局的代价函数cost进行比较,确定最终的代价函数CLF
Figure FDA0002249511600000021
根据以下公式,选择所述最终的代价函数CLF的最小值,确定所述参考图像上的每一个像素的深度dp
Figure FDA0002249511600000022
2.根据权利要求1所述的基于光场极线平面图像局部的深度获取方法,其特征在于,所述通过多基线视点图像对相机阵列视点图像进行校正,具体包括:
采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
将各个光心位置按照几何关系投影到虚拟基线上;
利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
3.根据权利要求2所述的基于光场极线平面图像局部的深度获取方法,其特征在于,所述虚拟基线为到各个相机的光心位置距离和最小的一条基线。
4.根据权利要求1所述的基于光场极线平面图像局部的深度获取方法,其特征在于,根据以下公式,计算所述极线平面图像上的线性结构的深度信息k:
Figure FDA0002249511600000023
其中,其中DISPARITY代表的是相邻两视点间的视差,baseline是相邻两相机之间的基线长度,f代表的是相机的焦距,d代表了参考图像上的每个像素的深度值。
5.根据权利要求1-4中任一项所述的基于光场极线平面图像局部的深度获取方法,其特征在于,所述相机的数量为7个。
6.根据权利要求1-4中任一项所述的基于光场极线平面图像局部的深度获取方法,其特征在于,各所述相机的分辨率为1024×768。
7.一种基于光场极线平面图像局部的深度获取系统,其特征在于,所述获取系统包括:
相机阵列,由多个相机构成,用于对真实场景进行采集,获得相机阵列视点图像;
校正单元,用于通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
计算单元,用于基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度;
其中,所述计算所述3D光场中参考图像上的每一个像素的深度,具体包括:
通过沿着3D光场极线平面中的线性结构移动参考图像上的每个像素至其他视点图像;所述其他视点图像为除所述移动的像素对应的视点图像以外的视点图像;
计算移动的像素与其他视点图像上像素的像素值差异;
根据各所述像素值差异确定代价函数的最小值,所述代价函数最小值对应的深度信息可信度最高;
其中,所述根据各所述像素值差异确定代价函数的最小值,具体包括:
根据以下公式,分别计算右局部视点的代价函数costr、左局部视点的代价函数costl,以及全局的代价函数cost:
Figure FDA0002249511600000031
其中,V表示视点图像的序列号,N表示视点图像的个数,Ref表示参考图像的序列号,VRef表示参考图像,LF(x,y,VRef)表示光场中的点(x,y,VRef),
Figure FDA0002249511600000032
为通过沿着线性结构移动将LF(x,y,VRef)移动到其他视点图像上的像素点,k表示极线平面图像上的线性结构的斜率;
根据以下公式,分别将所述右局部视点的代价函数costr、左局部视点的代价函数costl及全局的代价函数cost进行比较,确定最终的代价函数CLF
Figure FDA0002249511600000041
根据以下公式,选择所述最终的代价函数CLF的最小值,确定所述参考图像上的每一个像素的深度dp
Figure FDA0002249511600000042
8.根据权利要求7所述的基于光场极线平面图像局部的深度获取系统,其特征在于,所述校正单元包括:
标定模块,用于采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
投影模块,用于将各个光心位置按照几何关系投影到虚拟基线上;
校正模块,用于利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
构建模块,用于将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
CN201710662707.2A 2017-08-04 2017-08-04 基于光场极线平面图像局部的深度获取方法及系统 Active CN107545586B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710662707.2A CN107545586B (zh) 2017-08-04 2017-08-04 基于光场极线平面图像局部的深度获取方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710662707.2A CN107545586B (zh) 2017-08-04 2017-08-04 基于光场极线平面图像局部的深度获取方法及系统

Publications (2)

Publication Number Publication Date
CN107545586A CN107545586A (zh) 2018-01-05
CN107545586B true CN107545586B (zh) 2020-02-28

Family

ID=60971216

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710662707.2A Active CN107545586B (zh) 2017-08-04 2017-08-04 基于光场极线平面图像局部的深度获取方法及系统

Country Status (1)

Country Link
CN (1) CN107545586B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108846473B (zh) * 2018-04-10 2022-03-01 杭州电子科技大学 基于方向和尺度自适应卷积神经网络的光场深度估计方法
CN108615221B (zh) * 2018-04-10 2020-12-01 清华大学 基于剪切二维极线平面图的光场角度超分辨率方法及装置
EP3598390A1 (en) * 2018-07-19 2020-01-22 Thomson Licensing Method for estimating a depth for pixels, corresponding device and computer program product
CN111028294B (zh) * 2019-10-20 2024-01-16 奥比中光科技集团股份有限公司 一种基于深度相机的多距离标定方法及系统
CN110798673B (zh) * 2019-11-13 2021-03-19 南京大学 基于深度卷积神经网络的自由视点视频生成及交互方法
CN111402345B (zh) * 2020-06-04 2020-09-04 深圳看到科技有限公司 基于多目全景图像的模型生成方法及装置
CN113129350B (zh) * 2021-04-12 2022-12-30 长春理工大学 一种基于相机阵列的深度提取方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104662589A (zh) * 2012-08-21 2015-05-27 派力肯影像公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
US10109036B2 (en) * 2013-08-21 2018-10-23 Canon Kabushiki Kaisha Image processing apparatus, control method for same, and program that performs image processing for image data having a focus state that is changeable

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9797716B2 (en) * 2015-01-09 2017-10-24 Ricoh Company, Ltd. Estimating surface properties using a plenoptic camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104662589A (zh) * 2012-08-21 2015-05-27 派力肯影像公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
US10109036B2 (en) * 2013-08-21 2018-10-23 Canon Kabushiki Kaisha Image processing apparatus, control method for same, and program that performs image processing for image data having a focus state that is changeable

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A Novel Ray-Space based View Generation Algorithm via Radon Transform;Lingfeng Xu et.al;《3DR EXPRESS》;20130218(第1期);第1-15页 *
Close-range photogrammetry with light field camera: from disparity map to absolute distance;PENG YANG et.al;《Applied Optics》;20160920;第55卷(第27期);第1-10页 *

Also Published As

Publication number Publication date
CN107545586A (zh) 2018-01-05

Similar Documents

Publication Publication Date Title
CN107545586B (zh) 基于光场极线平面图像局部的深度获取方法及系统
US11615546B2 (en) Systems and methods for depth estimation using generative models
CN107077743B (zh) 用于阵列相机的动态校准的系统和方法
JP5954668B2 (ja) 画像処理装置、撮像装置および画像処理方法
KR100776649B1 (ko) 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법
US9025862B2 (en) Range image pixel matching method
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
KR101903619B1 (ko) 구조화된 스테레오
WO2009008864A1 (en) System and method for three-dimensional object reconstruction from two-dimensional images
CN109840922B (zh) 基于双目光场相机的深度获取方法和系统
CN111028281B (zh) 基于光场双目系统的深度信息计算方法及装置
CN108399631B (zh) 一种尺度不变性的倾斜影像多视密集匹配方法
WO2019048904A1 (en) STEREOSCOPIC DEPTH CARTOGRAPHY AND COMBINED PHASE DETECTION IN A DOUBLE-OPENING CAMERA
CN115035235A (zh) 三维重建方法及装置
US8340399B2 (en) Method for determining a depth map from images, device for determining a depth map
CN105513074B (zh) 一种羽毛球机器人相机以及车身到世界坐标系的标定方法
US9538161B2 (en) System and method for stereoscopic photography
BR112021008558A2 (pt) aparelho, método de estimativa de disparidade, e produto de programa de computador
Lin et al. Real-time low-cost omni-directional stereo vision via bi-polar spherical cameras
Cavegn et al. Evaluation of matching strategies for image-based mobile mapping
CN111260538A (zh) 基于长基线双目鱼眼相机的定位及车载终端
US20120154388A1 (en) Stereo image processing method, stereo image processing device and display device
CN108230273B (zh) 一种基于几何信息的人工复眼相机三维图像处理方法
CN111080689B (zh) 确定面部深度图的方法和装置
CN104977795A (zh) 立体摄影系统及其方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant