CN107545586B - 基于光场极线平面图像局部的深度获取方法及系统 - Google Patents
基于光场极线平面图像局部的深度获取方法及系统 Download PDFInfo
- Publication number
- CN107545586B CN107545586B CN201710662707.2A CN201710662707A CN107545586B CN 107545586 B CN107545586 B CN 107545586B CN 201710662707 A CN201710662707 A CN 201710662707A CN 107545586 B CN107545586 B CN 107545586B
- Authority
- CN
- China
- Prior art keywords
- viewpoint
- image
- light field
- cost function
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000006870 function Effects 0.000 claims description 60
- 230000003287 optical effect Effects 0.000 claims description 15
- 238000012937 correction Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000003702 image correction Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Abstract
本发明涉及一种基于光场极线平面图像局部的深度获取方法及系统,所述深度获取方法包括:通过多个相机构成相机阵列,对真实场景进行采集,获得相机阵列视点图像;通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。本发明通过多基线视点图像对相机阵列视点图像进行校正得到3D光场,基于代价函数计算像素的深度,将3D光场极线平面图像局部以及全局代价函数相结合,以利用整体图像信息,减小在深度跳变处深度估计的误差,提高估计的准确度。
Description
技术领域
本发明涉及计算机图像处理技术领域,具体涉及一种基于光场极线平面图像局部的深度获取方法及系统。
背景技术
随着科学技术和人类认识世界需求的不断发展,传统的二维图像已经不能满足人们对于物体识别的要求。与灰度图像相比,深度图像具有物体三维特性信息,即深度信息。深度图获取对于在场景理解、自由视点视频绘制、三维显示等领域有着关键性引导作用。目前,基于相机阵列的深度图初获取方法中,通常是构建一个Cost-Volume(成本量),依次根据每个相机的内外参数,将参考图像投影到其余相机捕获的非参考图像上,进行像素差值比较提取深度的方法。
但是目前的深度获取方法并没有完全利用整体的各相机图像信息,并且消耗时间长;
在深度跳变处即物体边缘处,深度估计误差较大。
发明内容
为了解决现有技术中的上述问题,即为了解决在深度跳变处估计误差大的不足的问题,本发明提供一种基于光场极线平面图像局部的深度获取方法及系统。
为解决上述技术问题,本发明提供了如下方案:
一种基于光场极线平面图像局部的深度获取方法,所述深度获取方法包括:
通过多个相机构成相机阵列,对真实场景进行采集,获得相机阵列视点图像;
通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。
可选的,所述通过多基线视点图像对相机阵列视点图像进行校正,具体包括:
采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
将各个光心位置按照几何关系投影到虚拟基线上;
利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
可选的,所述虚拟基线为到各个相机的光心位置距离和最小的一条基线。
可选的,所述计算所述3D光场中参考图像上的每一个像素的深度,具体包括:
通过沿着3D光场极线平面(EPI,epipolar plane image)中的线性结构移动参考图像上的每个像素至其他视点图像;所述其他视点图像为除所述移动的像素对应的视点图像以外的视点图像;
计算移动的像素与其他视点图像上像素的像素值差异;
根据各所述像素值差异确定代价函数的最小值,所述代价函数最小值对应的深度信息可信度最高。
可选的,所述根据各所述像素值差异确定代价函数的最小值,具体包括:
根据以下公式,分别计算右局部视点的代价函数cos tr、左局部视点的代价函数cos tl,以及全局的代价函数cos t:
其中,V表示视点图像的序列号,N表示视点图像的个数,Ref表示参考图像的序列号,VRef表示参考图像,LF(x,y,VRef)表示光场中的点(x,y,VRef),为通过沿着线性结构移动将LF(x,y,VRef)移动到其他视点图像上的像素点,k表示极线平面图像上的线性结构的斜率;
根据以下公式,分别将所述右局部视点的代价函数cos tr、左局部视点的代价函数cos tl及全局的代价函数cos t进行比较,确定最终的代价函数CLF:
根据以下公式,选择所述最终的代价函数CLF的最小值,确定所述参考图像上的每一个像素的深度dp:
可选的,根据以下公式,计算所述极线平面图像上的线性结构的深度信息k:
其中,其中DISPARITY代表的是相邻两视点间的视差,baseline是相邻两相机之间的基线长度,f代表的是相机的焦距,d代表了参考图像上的每个像素的深度值。
可选的,所述相机的数量为7个。
可选的,各所述相机的分辨率为1024×768。
为解决上述技术问题,本发明还提供了如下方案:
一种基于光场极线平面图像局部的深度获取系统,其特征在于,所述获取系统包括:
相机阵列,由多个相机构成,用于对真实场景进行采集,获得相机阵列视点图像;
校正单元,用于通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
计算单元,用于基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。
可选的,所述校正单元包括:
标定模块,用于采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
投影模块,用于将各个光心位置按照几何关系投影到虚拟基线上;
校正模块,用于利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
构建模块,用于将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
根据本发明的实施例,本发明公开了以下技术效果:
本发明通过多基线视点图像对相机阵列视点图像进行校正得到3D光场,基于代价函数计算像素的深度,将3D光场极线平面图像局部以及全局代价函数相结合,以利用整体图像信息,减小在深度跳变处深度估计的误差,提高估计的准确度。
附图说明
图1是本发明基于光场极线平面图像局部的深度获取方法的流程图;
图2(a)-图2(c)为3D光场图;
图3是本发明基于光场极线平面图像局部的深度获取系统的模块结构示意图。
符号说明:
相机阵列—1,校正单元—2,计算单元—3。
具体实施方式
下面参照附图来描述本发明的优选实施方式。本领域技术人员应当理解的是,这些实施方式仅仅用于解释本发明的技术原理,并非旨在限制本发明的保护范围。
本发明提供一种基于光场极线平面图像局部的深度获取方法,通过多基线视点图像对相机阵列视点图像进行校正得到3D光场,基于代价函数计算像素的深度,将3D光场极线平面图像局部以及全局代价函数相结合,以利用整体图像信息,减小在深度跳变处深度估计的误差,提高估计的准确度。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明基于光场极线平面图像局部的深度获取方法包括:
步骤100:通过多个相机构成相机阵列,对真实场景进行采集,获得相机阵列视点图像;
步骤200:通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
步骤300:基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。
在本实施例中,共设置有7个相机,即所述相机阵列由7个Microsoft cameras构成。进一步地,每个相机的分辨率可为1024×768。
在步骤200中,所述通过多基线视点图像对相机阵列视点图像进行校正,具体包括:
步骤201:采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线。所述虚拟基线为到各个相机的光心位置距离和最小的一条基线。
步骤202:将各个光心位置按照几何关系投影到虚拟基线上。
步骤203:利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵。
步骤204:将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
其中,如图2(a)-图2(c)所示,在所述3D光场中,V表示视点图像的序列号,LF(x,y,VRef)表示光场中的点(x,y,VRef),VRef表示参考图像(reference image),IRef代表的是参考图像的序列号,x-V平面代表的是3D光场极线平面图像(EPI,epi-polar plane image),在IRef上通过点p(x,y,VRef)的线l(x,y,VRef)代表的是EPI上的线性结构,该线性结构包含了深度信息(即斜率):
DISPARITY代表的是相邻两视点间的视差,baseline是相邻两相机之间的基线长度,f代表的是相机的焦距,d代表了IRef的每个像素的深度值。
在步骤300中,所述计算所述3D光场中参考图像上的每一个像素的深度,具体包括:
步骤301:通过沿着3D光场极线平面中的线性结构移动参考图像上的每个像素至其他视点图像。所述其他视点图像为除所述移动的像素对应的视点图像以外的视点图像。
步骤302:计算移动的像素与其他视点图像上像素的像素值差异。
步骤303:根据各所述像素值差异确定代价函数的最小值,所述代价函数最小值对应的深度信息可信度最高。
其中,对于IRef上的每一个像素(x,y),我们可以通过沿着线性结构移动每个像素至其他的视点图像,并计算出该移动像素的值与原其他的视点图像上的像素值的差异。将所有像素的平均的L1正则差异作为代价函数CLF。为每一个像素找到一个k,使得代价函数CLF最小:
其中,N代表了视点图像的个数。然而该代价函数很容易使得深度跳跃处的深度估计不准确。
为提高深度估计的准确性,分别计算右局部视点的代价函数cos tr、左局部视点的代价函数cos tl,以及全局的代价函数cos t。具体的,在步骤303中,所述根据各所述像素值差异确定代价函数的最小值,具体包括:
步骤303a:根据公式(3),分别计算右局部视点的代价函数cos tr、左局部视点的代价函数cos tl,以及全局的代价函数cos t:
其中,V表示视点图像的序列号,N表示视点图像的个数,Ref表示,VRef表示参考图像,LF(x,y,VRef)表示光场中的点(x,y,VRef),为通过沿着线性结构移动将LF(x,y,VRef)移动到其他视点图像上的像素点,k表示极线平面图像上的线性结构的深度信息。
步骤303b:根据公式(4),分别将所述右局部视点的代价函数cos tr、左局部视点的代价函数cos tl及全局的代价函数cos t进行比较,确定最终的代价函数CLF:
步骤303c:根据公式(5),选择所述最终的代价函数CLF的最小值,确定所述参考图像上的每一个像素的深度dp:
通过对公式(1)的转化,得到参考图像上的每个像素p的深度。
此外,本发明还提供一种基于光场极线平面图像局部的深度获取系统,可减小在深度跳变处估计的误差,提高估计的准确度。如图3所示,本发明基于光场极线平面图像局部的深度获取系统包括相机阵列1、校正单元2及计算单元3。
其中,所述相机阵列1由多个相机构成,用于对真实场景进行采集,获得相机阵列视点图像;
所述校正单元2用于通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
所述计算单元3用于基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度。
进一步地,所述校正单元2包括标定模块、投影模块、校正模块及构建模块。
所述标定模块用于采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
所述投影模块,用于将各个光心位置按照几何关系投影到虚拟基线上;
所述校正模块,用于利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
所述构建模块,用于将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
相对于现有技术,本发明基于光场极线平面图像局部的深度获取系统与上述基于光场极线平面图像局部的深度获取方法的有益效果相同,在此不再赘述。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
Claims (8)
1.一种基于光场极线平面图像局部的深度获取方法,其特征在于,所述深度获取方法包括:
通过多个相机构成相机阵列,对真实场景进行采集,获得相机阵列视点图像;
通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度;
其中,所述计算所述3D光场中参考图像上的每一个像素的深度,具体包括:
通过沿着3D光场极线平面中的线性结构移动参考图像上的每个像素至其他视点图像;所述其他视点图像为除所述移动的像素对应的视点图像以外的视点图像;
计算移动的像素与其他视点图像上像素的像素值差异;
根据各所述像素值差异确定代价函数的最小值,所述代价函数最小值对应的深度信息可信度最高;
其中,所述根据各所述像素值差异确定代价函数的最小值,具体包括:
根据以下公式,分别计算右局部视点的代价函数costr、左局部视点的代价函数costl,以及全局的代价函数cost:
其中,V表示视点图像的序列号,N表示视点图像的个数,Ref表示参考图像的序列号,VRef表示参考图像,LF(x,y,VRef)表示光场中的点(x,y,VRef),为通过沿着线性结构移动将LF(x,y,VRef)移动到其他视点图像上的像素点,k表示极线平面图像上的线性结构的斜率;
根据以下公式,分别将所述右局部视点的代价函数costr、左局部视点的代价函数costl及全局的代价函数cost进行比较,确定最终的代价函数CLF:
根据以下公式,选择所述最终的代价函数CLF的最小值,确定所述参考图像上的每一个像素的深度dp:
2.根据权利要求1所述的基于光场极线平面图像局部的深度获取方法,其特征在于,所述通过多基线视点图像对相机阵列视点图像进行校正,具体包括:
采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
将各个光心位置按照几何关系投影到虚拟基线上;
利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
3.根据权利要求2所述的基于光场极线平面图像局部的深度获取方法,其特征在于,所述虚拟基线为到各个相机的光心位置距离和最小的一条基线。
5.根据权利要求1-4中任一项所述的基于光场极线平面图像局部的深度获取方法,其特征在于,所述相机的数量为7个。
6.根据权利要求1-4中任一项所述的基于光场极线平面图像局部的深度获取方法,其特征在于,各所述相机的分辨率为1024×768。
7.一种基于光场极线平面图像局部的深度获取系统,其特征在于,所述获取系统包括:
相机阵列,由多个相机构成,用于对真实场景进行采集,获得相机阵列视点图像;
校正单元,用于通过多基线视点图像对相机阵列视点图像进行校正,形成3D光场;
计算单元,用于基于代价函数,计算所述3D光场中参考图像上的每一个像素的深度;
其中,所述计算所述3D光场中参考图像上的每一个像素的深度,具体包括:
通过沿着3D光场极线平面中的线性结构移动参考图像上的每个像素至其他视点图像;所述其他视点图像为除所述移动的像素对应的视点图像以外的视点图像;
计算移动的像素与其他视点图像上像素的像素值差异;
根据各所述像素值差异确定代价函数的最小值,所述代价函数最小值对应的深度信息可信度最高;
其中,所述根据各所述像素值差异确定代价函数的最小值,具体包括:
根据以下公式,分别计算右局部视点的代价函数costr、左局部视点的代价函数costl,以及全局的代价函数cost:
其中,V表示视点图像的序列号,N表示视点图像的个数,Ref表示参考图像的序列号,VRef表示参考图像,LF(x,y,VRef)表示光场中的点(x,y,VRef),为通过沿着线性结构移动将LF(x,y,VRef)移动到其他视点图像上的像素点,k表示极线平面图像上的线性结构的斜率;
根据以下公式,分别将所述右局部视点的代价函数costr、左局部视点的代价函数costl及全局的代价函数cost进行比较,确定最终的代价函数CLF:
根据以下公式,选择所述最终的代价函数CLF的最小值,确定所述参考图像上的每一个像素的深度dp:
8.根据权利要求7所述的基于光场极线平面图像局部的深度获取系统,其特征在于,所述校正单元包括:
标定模块,用于采用捕获棋盘格的方法标定出的所述相机阵列中各个相机的光心位置,确定一条虚拟基线;
投影模块,用于将各个光心位置按照几何关系投影到虚拟基线上;
校正模块,用于利用双目相机基线视点图像矫正方法对捕获到的相机阵列视点图像进行校正,使得每幅图的基线变成共线并且平行于所述虚拟基线,并获得各个相机对应的单映矩阵;
构建模块,用于将各所述单映矩阵分别作用于对应相机的视点图像,获得对应的校正视点图像,各所述校正视点图像构成3D光场。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710662707.2A CN107545586B (zh) | 2017-08-04 | 2017-08-04 | 基于光场极线平面图像局部的深度获取方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710662707.2A CN107545586B (zh) | 2017-08-04 | 2017-08-04 | 基于光场极线平面图像局部的深度获取方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107545586A CN107545586A (zh) | 2018-01-05 |
CN107545586B true CN107545586B (zh) | 2020-02-28 |
Family
ID=60971216
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710662707.2A Active CN107545586B (zh) | 2017-08-04 | 2017-08-04 | 基于光场极线平面图像局部的深度获取方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107545586B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108846473B (zh) * | 2018-04-10 | 2022-03-01 | 杭州电子科技大学 | 基于方向和尺度自适应卷积神经网络的光场深度估计方法 |
CN108615221B (zh) * | 2018-04-10 | 2020-12-01 | 清华大学 | 基于剪切二维极线平面图的光场角度超分辨率方法及装置 |
EP3598390A1 (en) * | 2018-07-19 | 2020-01-22 | Thomson Licensing | Method for estimating a depth for pixels, corresponding device and computer program product |
CN111028294B (zh) * | 2019-10-20 | 2024-01-16 | 奥比中光科技集团股份有限公司 | 一种基于深度相机的多距离标定方法及系统 |
CN110798673B (zh) * | 2019-11-13 | 2021-03-19 | 南京大学 | 基于深度卷积神经网络的自由视点视频生成及交互方法 |
CN111402345B (zh) * | 2020-06-04 | 2020-09-04 | 深圳看到科技有限公司 | 基于多目全景图像的模型生成方法及装置 |
CN113129350B (zh) * | 2021-04-12 | 2022-12-30 | 长春理工大学 | 一种基于相机阵列的深度提取方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104662589A (zh) * | 2012-08-21 | 2015-05-27 | 派力肯影像公司 | 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法 |
US10109036B2 (en) * | 2013-08-21 | 2018-10-23 | Canon Kabushiki Kaisha | Image processing apparatus, control method for same, and program that performs image processing for image data having a focus state that is changeable |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9797716B2 (en) * | 2015-01-09 | 2017-10-24 | Ricoh Company, Ltd. | Estimating surface properties using a plenoptic camera |
-
2017
- 2017-08-04 CN CN201710662707.2A patent/CN107545586B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104662589A (zh) * | 2012-08-21 | 2015-05-27 | 派力肯影像公司 | 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法 |
US10109036B2 (en) * | 2013-08-21 | 2018-10-23 | Canon Kabushiki Kaisha | Image processing apparatus, control method for same, and program that performs image processing for image data having a focus state that is changeable |
Non-Patent Citations (2)
Title |
---|
A Novel Ray-Space based View Generation Algorithm via Radon Transform;Lingfeng Xu et.al;《3DR EXPRESS》;20130218(第1期);第1-15页 * |
Close-range photogrammetry with light field camera: from disparity map to absolute distance;PENG YANG et.al;《Applied Optics》;20160920;第55卷(第27期);第1-10页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107545586A (zh) | 2018-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107545586B (zh) | 基于光场极线平面图像局部的深度获取方法及系统 | |
US11615546B2 (en) | Systems and methods for depth estimation using generative models | |
CN107077743B (zh) | 用于阵列相机的动态校准的系统和方法 | |
JP5954668B2 (ja) | 画像処理装置、撮像装置および画像処理方法 | |
KR100776649B1 (ko) | 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법 | |
US9025862B2 (en) | Range image pixel matching method | |
US20110249117A1 (en) | Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program | |
KR101903619B1 (ko) | 구조화된 스테레오 | |
WO2009008864A1 (en) | System and method for three-dimensional object reconstruction from two-dimensional images | |
CN109840922B (zh) | 基于双目光场相机的深度获取方法和系统 | |
CN111028281B (zh) | 基于光场双目系统的深度信息计算方法及装置 | |
CN108399631B (zh) | 一种尺度不变性的倾斜影像多视密集匹配方法 | |
WO2019048904A1 (en) | STEREOSCOPIC DEPTH CARTOGRAPHY AND COMBINED PHASE DETECTION IN A DOUBLE-OPENING CAMERA | |
CN115035235A (zh) | 三维重建方法及装置 | |
US8340399B2 (en) | Method for determining a depth map from images, device for determining a depth map | |
CN105513074B (zh) | 一种羽毛球机器人相机以及车身到世界坐标系的标定方法 | |
US9538161B2 (en) | System and method for stereoscopic photography | |
BR112021008558A2 (pt) | aparelho, método de estimativa de disparidade, e produto de programa de computador | |
Lin et al. | Real-time low-cost omni-directional stereo vision via bi-polar spherical cameras | |
Cavegn et al. | Evaluation of matching strategies for image-based mobile mapping | |
CN111260538A (zh) | 基于长基线双目鱼眼相机的定位及车载终端 | |
US20120154388A1 (en) | Stereo image processing method, stereo image processing device and display device | |
CN108230273B (zh) | 一种基于几何信息的人工复眼相机三维图像处理方法 | |
CN111080689B (zh) | 确定面部深度图的方法和装置 | |
CN104977795A (zh) | 立体摄影系统及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |