CN112750156A - 光场成像系统、处理方法和装置 - Google Patents

光场成像系统、处理方法和装置 Download PDF

Info

Publication number
CN112750156A
CN112750156A CN202010182173.5A CN202010182173A CN112750156A CN 112750156 A CN112750156 A CN 112750156A CN 202010182173 A CN202010182173 A CN 202010182173A CN 112750156 A CN112750156 A CN 112750156A
Authority
CN
China
Prior art keywords
epi
parallax
image
light field
parallax range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010182173.5A
Other languages
English (en)
Other versions
CN112750156B (zh
Inventor
李浩天
丁俊飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yimu Shanghai Technology Co ltd
Original Assignee
Yimu Shanghai Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yimu Shanghai Technology Co ltd filed Critical Yimu Shanghai Technology Co ltd
Priority to CN202010182173.5A priority Critical patent/CN112750156B/zh
Publication of CN112750156A publication Critical patent/CN112750156A/zh
Application granted granted Critical
Publication of CN112750156B publication Critical patent/CN112750156B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

一种光场成像系统,光场成像系统的图像处理单元对于被测物体图像的处理过程包括以下步骤:A1,通过所述光场相机获取被测物体多视角图像;A2,基于极限约束原理和多视角图像,生成一系列外极线图像EPI;A3,初始化视差范围和标签数,对外极线图像EPI进行边缘检测,计算EPI斜率;A4,对全部外极线图像EPI的斜率进行后处理,获得视差标签图;A5,统计视差标签图中标签的频率分布直方图并进行滤波;A6,对直方图进行高斯拟合,依据正态分布的3δ原则重新确定视差范围;A7,如果重新确定的视差范围包含在原视差范围内,则更新视差范围,否则输出原视差范围作为最终结果。

Description

光场成像系统、处理方法和装置
技术领域
本发明属于三维成像技术领域,特别涉及一种光场成像系统、处理方法和装置。
背景技术
光场成像技术近年来获得了快速的发展,该技术通过利用两个平行平面的参数化表示光线的传播方向。相比于二维图像,光场图像隐含众多空间信息,通过光场渲染后可以获得多视角图像、重聚焦图像和三维深度图像。因此,光场成像技术在三维重建、虚拟现实、增强现实和工业检测领域得到了广泛的研究和应用。
迄今为止,针对光场渲染和光场深度估计,核心参数视差值的研究却很少,通常的方法是基于实际经验设置一个大概的范围。由于光场视差范围的不精确设定,造成了大量计算资源的浪费。例如,在深度估计算法中,不精确的视差值导致单位标签代表的视差范围过大,降低深度计算精度。错误的视差范围更会造成深度计算结果的缺失。
发明内容
本发明提供了光场成像系统和处理方法,针对光场成像现有技术中视差范围难以直接确定的缺陷,提供了一种视差范围自适应光场渲染系统和处理算法。
本发明实施例之一,一种视差范围自适应光场渲染算法,包含以下步骤:
A1,基于光场成像原理获取被测物体多视角图像;
A2,基于极限约束原理和多视角图像,生成一系列外极线图像(EPI);
A3,初始化视差范围和标签数,对外极线图像进行边缘检测计算EPI斜率;
A4,对全部外极线图像的直线斜率进行后处理,获得视差标签图;
A5,统计视差标签图中标签的频率分布直方图并进行滤波;
A6,对直方图进行高斯拟合,依据正态分布的3δ原则重新确定视差范围;
A7,如果新视差范围包含在原视差范围内,则更新视差范围并重新进行A3至A7过程;否则输出原视差范围作为最终结果。
本发明实施例的视差范围自适应的光场渲染算法,通过对基于光场成像的核心参数--视差范围进行自适应预处理,精确的确定视差范围,以提升光场重聚焦和深度计算的精度。根据光场成像原理,利用单台光场相机或者相机阵列获取被测物体的多视角子图像;基于极线约束原理对多视角子图像进行组合排列获得外极线图像(Epipolar PlaneImage,EPI);正式进行迭代求解视差范围前进行初始化并均分N份分别赋予N个标签值;对外极线图像进行边缘检测计算视差大小,获得视差标签图,该视差标签图像素为整数级标签值;对视差标签图统计频率分布直方图并滤波;对其进行高斯拟合,依据正态分布3δ原则确定新的视差范围;如果新视差范围包含在原视差范围内,则更新视差范围并重新进行迭代过程;否则输出原视差范围作为最终光场视差范围。
本发明不需要进行额外的校准标定过程,根据拍摄物体、拍摄环境和拍摄尺度的不同进行自适应的视差范围确定,具有独特的优越性,极大程度提高了光场渲染中重聚焦和深度估计的计算精度和效率。
附图说明
通过参考附图阅读下文的详细描述,本发明示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施方式,其中:
图1是本发明实施例之一的视差范围自适应光场渲染算法流程步骤示意图。
图2是本发明实施例之一的多视角图像示意图;
图3是本发明实施例之一基于光场外极线原理示意图;
图4是本发明实施例之一的外极线图像示例图;
图5是本发明实施例之一的视差标签示例图。
图6是本发明实施例之一的视差范围自适应光场渲染处理系统示意图。
10——光场相机,11——镜头,21——第一光源,22——第二光源,30——被测物体,40——工控机。
具体实施方式
如图6所示,一种光场成像系统,该系统包括光场相机,该光场相机的镜头正对被测物体。还包括二个光源,该二个光源的光线分别照射被测物体,用以帮助光场相机获取理想的被测物体的光场图像。图像处理单元(可以采用工控机)连接所述光场相机,接收所述光场相机的图像数据,图像处理单元用于对被测物体的光场图像实现视差范围自适应的光场渲染计算处理。
根据一个或者多个实施例,如图1所示的视差范围自适应光场渲染方法,包含以下步骤:
A1,基于光场成像原理获取被测物体多视角图像;
A2,基于极限约束原理和多视角图像,生成一系列外极线图像(EPI);
A3,初始化视差范围和标签数,对外极线图像进行边缘检测计算EPI斜率;
A4,对全部外极线图像的直线斜率进行后处理,获得视差标签图;
A5,统计视差标签图中标签的频率分布直方图并进行滤波;
A6,对直方图进行高斯拟合,依据正态分布的3δ原则重新确定视差范围;
A7,如果新视差范围包含在原视差范围内,则更新视差范围并重新进行步骤A3至A7过程;否则输出原视差范围作为最终结果。
如图2所示为本发明的多视角图像示意图。主要通过两种主要方法获取:(1)通过单光场相机拍摄被测物体原始光场图像,通过光场渲染算法从原始光场图像中得到被测物体的多视角图像;(2)通过相机阵列拍摄被测物体的多视角图像,该相机阵列包括线型、方阵型、环型、球型和围幕型等多种排列形状。
如图3所示为基于的光场外极线原理示意图。u-v平面表示视角平面,s-t平面表示相机图像平面,被拍摄物体上的某一点P在不同视角图像中具有不同的像素坐标,即相对于中心视角的P(s0,t0)有一定程度的偏移,而偏移大小和该点与相机的距离有关。若在多视角图像中选取中心一行视角图像,P点在该行视角的像素坐标沿水平方向进行偏移P(s0,t0)→P(si,t0),且相邻图像的偏移量相同。同理,在中心列视角中P点像素坐标沿垂直方向进行偏移P(s0,t0)→P(s0,ti)。为更好地描述像素偏移产生的视差,本发明基于公式(1)可以生成一系列外极线图像计算视差。如图3所示,当固定t和v时,空间中点P的光线将投影到切片平面s-u上;同理,固定s和u时,光线投影至切片平面t-v上,最终形成EPI。如图4所示为外极线图像示意图,将同一行视角图像(固定t)的同一行像素(固定v)组合形成如图4所示的EPI图像,其中每条极线的斜率大小表示了该点在各视角中像素的偏移程度,即视差值。
It,v(s,u)=L(s,t*,u,v*) (1)
其中(1)式中各变量的含义如下:
s,t分别表示子视角图像的横轴纵轴坐标;
u,v分别表示子视角排列的横轴纵轴坐标;
L(s,t*,u,v*)为4D光场表达式,※表示固定不变;
It,v(s,u)为EPI切片。
Figure BDA0002412950340000041
其中(2)式中各变量的含义如下:
Z表示真实深度值;
f表示焦距;
Δu表示沿视角横轴方向的变化;
Δs表示沿子视角图像横轴方向的变化,即视差大小;
θ表示EPI图像倾斜角度。
在正式的迭代过程中,首先要初始化视差范围和标签数,然后对外极线图像进行边缘检测计算EPI斜率。初始化一个较大的视差范围,这个视差范围在(-8~8)个像素,即获得外极线图像直线的初始斜率范围,并将其均分N等分,用整数级标签1到N表示;对外极线图像进行基于公式(3)(4)边缘检测,得到外极线图像直线斜率大小。
Figure BDA0002412950340000042
d(i,j)=i-(sr+(j-ur)·tanθ) (4)
其中(3)(4)式中各变量的含义如下:
i,j分别表示EPI图像中横纵轴坐标;
r表示在t和v固定下的子视角图像中的某点P(sr,ur);
θ表示EPI图像倾斜角度;
a和c为缩放常量;
w(i,j)表示边缘检测中待测点周围的权重系数。
然后基于公式(5)将计算得到的沿不同方向视角组成的EPI斜率融合并平滑后,使用基于公式(6)赢者通吃原则将斜率值转化为对应的像素点的标签值,最后将子视角图像的像素值替换为对应的标签值得到视差标签图。
Figure BDA0002412950340000051
du,v(s,t)=argmax(Costu,v(s,t,θ)) (6)
其中(5)(6)式中各变量的含义如下:
Costu,v(s,t,θ)表示融合后的EPI直线角度为θ的可能性大小;
Figure BDA0002412950340000055
(s,u*,θ)表示沿v方向的视角组成的EPI图像进行边缘检测后,角度为θ的可能性大小;
Figure BDA0002412950340000056
(t,v*,θ)表示沿t方向的视角组成的EPI图像进行边缘检测后,角度为θ的可能性大小;
Figure BDA0002412950340000052
表示权重大小,范围为0~1;
du,v(s,t)表示视差标签图的标签值。
统计视差标签图中标签的频率分布直方图并进行滤波,该滤波主要包括剔除背景标签值和错误标签值过程。对直方图进行基于公式(7)(8)的高斯拟合,依据正态分布的3δ原则重新确定视差范围。
Figure BDA0002412950340000053
Figure BDA0002412950340000054
其中(7)(8)式中各变量的含义如下:
f(x)为标准正态分布公式;
σ为标准差;
u为期望值;
x为自变量;
J为对公式(7)进行参数化拟合求解近似公式,J为0时拟合结果最优;
A为高斯拟合幅度;
xi和yi表示对应点拟合值。
最后中对上述输出的结果进行判断:如果新视差范围包含在原视差范围内,则更新视差范围并重新进行迭代过程;否则迭代结束,输出原视差范围作为最终结果。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (9)

1.一种光场成像系统,其特征在于,该系统包括,
光场相机,该光场相机的镜头正对被测物体;
至少一个光源,该光源的光线照射所述被测物体;
图像处理单元,该图像处理单元连接所述光场相机,接收所述光场相机的图像数据,
所述光场成像系统的图像处理单元对于被测物体图像的处理过程包括以下步骤:
A1,通过所述光场相机获取被测物体多视角图像;
A2,基于极限约束原理和多视角图像,生成一系列外极线图像EPI;
A3,初始化视差范围和标签数,对外极线图像EPI进行边缘检测,计算EPI斜率;
A4,对全部外极线图像EPI的斜率进行后处理,获得视差标签图;
A5,统计视差标签图中标签的频率分布直方图并进行滤波;
A6,对直方图进行高斯拟合,依据正态分布的3δ原则重新确定视差范围;
A7,如果重新确定的视差范围包含在原视差范围内,则更新视差范围,并继续步骤A3至A7过程,否则输出原视差范围作为最终结果。
2.一种光场成像处理方法,其特征在于,所述的成像处理方法包括:
A1,通过光场相机获取被测物体多视角图像;
A2,基于极限约束原理和多视角图像,生成一系列外极线图像EPI;
A3,初始化视差范围和标签数,对外极线图像EPI进行边缘检测,计算EPI斜率;
A4,对全部外极线图像EPI的斜率进行后处理,获得视差标签图;
A5,统计视差标签图中标签的频率分布直方图并进行滤波;
A6,对频率分布直方图进行高斯拟合,依据正态分布的3δ原则重新确定视差范围;
A7,如果重新确定的视差范围包含在原视差范围内,则更新视差范围,并继续步骤A3至A7过程,否则输出原视差范围作为最终结果。
3.根据权利要求2所述的光场成像处理方法,其特征在于,所述步骤A1,基于光场成像原理获取被测物体多视角图像,获得被测物体多视角图像的方法包括:
(1)通过单光场相机拍摄被测物体原始光场图像,通过光场渲染算法从原始光场图像中得到被测物体的多视角图像;或者
(2)通过相机阵列拍摄被测物体的多视角图像,
优选的,该相机阵列可以是线型、方阵型、环型、球型或围幕型排列形状。
4.根据权利要求2所述的光场成像处理方法,其特征在于,步骤A2中,基于极限约束原理和多视角图像,基于公式(1)生成一系列外极线图像,该外极线图像由多视角图像中部分视角图像中对应满足极线约束原理的像素组成,外极线图像中隐含多条直线对应不同子视角像素;
所述直线的斜率大小表征视差大小,通过公式(2)计算直线斜率大小推导子视角图像像素表征的视差值,其中公式(1)为
It,v(s,u)=L(s,t*,u,v*) (1)
公式(1)中各变量的含义如下:
s,t分别表示子视角图像的横轴纵轴坐标;
u,v分别表示子视角排列的横轴纵轴坐标;
L(s,t*,u,v*)为4D光场表达式,※表示固定不变;
It,v(s,u)为EPI切片,
公式(2)为
Figure FDA0002412950330000021
公式(2)中各变量的含义如下:
Z表示真实深度值;
f表示焦距;
Δu表示沿视角横轴方向的变化;
Δs表示沿子视角图像横轴方向的变化,即视差大小;
θ表示EPI图像倾斜角度。
5.根据权利要求2所述的光场成像处理方法,其特征在于,在步骤A3中初始化视差范围和标签数,对外极线图像进行边缘检测计算EPI斜率,具体步骤包括:
初始化一个预设的视差范围,即获得外极线图像直线的初始斜率范围,并将其均分N等分,用整数级标签1到N表示;
对外极线图像进行基于公式(3)(4)边缘检测,得到外极线图像直线斜率大小,
Figure FDA0002412950330000031
d(i,j)=i-(sr+(j-ur)·tanθ) (4)
其中公式(3)(4)式中各变量的含义如下:
i,j分别表示EPI图像中横纵轴坐标;
r表示在t和v固定下的子视角图像中的某点P(sr,ur);
θ表示EPI图像倾斜角度;
a和c为缩放常量;
w(i,j)表示边缘检测中待测点周围的权重系数。
6.根据权利要求2所述的光场成像处理方法,其特征在于,步骤A4中,对全部外极线图像的直线斜率进行后处理,获得视差标签图,具体步骤包括:
基于公式(5)将计算得到的沿不同方向视角组成的EPI斜率融合并平滑后,使用基于公式(6)赢者通吃原则(Winner-take-all)将斜率值转化为对应的像素点的标签值,最后将子视角图像的像素值替换为对应的标签值得到视差标签图,其中有,
Figure FDA0002412950330000032
du,v(s,t)=argmax(Costu,v(s,t,θ)) (6)
公式(5)(6)式中各变量的含义如下:
Costu,v(s,t,θ)表示融合后的EPI直线角度为θ的可能性大小;
Figure FDA0002412950330000034
表示沿v方向的视角组成的EPI图像进行边缘检测后,角度为θ的可能性大小;
Figure FDA0002412950330000035
表示沿t方向的视角组成的EPI图像进行边缘检测后,角度为θ的可能性大小;
Figure FDA0002412950330000033
表示权重大小,范围为0~1;
du,v(s,t)表示视差标签图的标签值。
7.根据权利要求2所述的光场成像处理方法,其特征在于,步骤A5中,统计视差标签图中标签的频率分布直方图并进行滤波,所述的滤波包括剔除背景标签值和错误标签值过程。
8.根据权利要求2所述的光场成像处理方法,其特征在于,步骤A6中,对频率分布直方图进行基于公式(7)(8)的高斯拟合,依据正态分布的3δ原则重新确定视差范围,
Figure FDA0002412950330000041
Figure FDA0002412950330000042
其中公式(7)(8)式中各变量的含义如下:
f(x)为标准正态分布公式;
σ为标准差;
u为期望值;
x为自变量;
J为对公式(7)进行参数化拟合求解近似公式,J为0时拟合结果最优;
A为高斯拟合幅度;
xi和yi表示对应点拟合值。
9.一种视差范围自适应光场渲染处理装置,其特征在于,所述装置包括存储器;以及
耦合到所述存储器的处理器,该处理器被配置为执行存储在所述存储器中的指令,所述处理器执行以下操作:
A1,通过光场相机获取被测物体多视角图像;
A2,基于极限约束原理和多视角图像,生成一系列外极线图像EPI;
A3,初始化视差范围和标签数,对外极线图像EPI进行边缘检测,计算EPI斜率;
A4,对全部外极线图像EPI的斜率进行后处理,获得视差标签图;
A5,统计视差标签图中标签的频率分布直方图并进行滤波;
A6,对直方图进行高斯拟合,依据正态分布的3δ原则重新确定视差范围;
A7,如果重新确定的视差范围包含在原视差范围内,则更新视差范围,并继续步骤A3至A7过程,否则输出原视差范围作为最终结果。
CN202010182173.5A 2020-03-16 2020-03-16 光场成像系统、处理方法和装置 Active CN112750156B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010182173.5A CN112750156B (zh) 2020-03-16 2020-03-16 光场成像系统、处理方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010182173.5A CN112750156B (zh) 2020-03-16 2020-03-16 光场成像系统、处理方法和装置

Publications (2)

Publication Number Publication Date
CN112750156A true CN112750156A (zh) 2021-05-04
CN112750156B CN112750156B (zh) 2022-09-09

Family

ID=75645270

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010182173.5A Active CN112750156B (zh) 2020-03-16 2020-03-16 光场成像系统、处理方法和装置

Country Status (1)

Country Link
CN (1) CN112750156B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113645462A (zh) * 2021-08-06 2021-11-12 深圳臻像科技有限公司 一种3d光场的转换方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106991715A (zh) * 2017-05-11 2017-07-28 中国科学院自动化研究所 基于光场采集的光栅棱柱三维显示渲染方法
CN108362469A (zh) * 2018-01-16 2018-08-03 上海交通大学 基于压敏漆与光场相机的尺寸与表面压力测量方法与装置
CN109410266A (zh) * 2018-09-18 2019-03-01 合肥工业大学 基于四模Census变换和离散视差搜索的立体匹配算法
CN109523622A (zh) * 2018-11-15 2019-03-26 奥本未来(北京)科技有限责任公司 一种非结构化的光场渲染方法
CN109997170A (zh) * 2016-10-18 2019-07-09 弗托斯传感与算法公司 用于从视图中获得距离信息的设备和方法
CN110120071A (zh) * 2019-05-15 2019-08-13 南京工程学院 一种面向光场图像的深度估计方法
CN110462686A (zh) * 2017-02-06 2019-11-15 弗托斯传感与算法公司 用于从场景获得深度信息的设备和方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109997170A (zh) * 2016-10-18 2019-07-09 弗托斯传感与算法公司 用于从视图中获得距离信息的设备和方法
CN110462686A (zh) * 2017-02-06 2019-11-15 弗托斯传感与算法公司 用于从场景获得深度信息的设备和方法
CN106991715A (zh) * 2017-05-11 2017-07-28 中国科学院自动化研究所 基于光场采集的光栅棱柱三维显示渲染方法
CN108362469A (zh) * 2018-01-16 2018-08-03 上海交通大学 基于压敏漆与光场相机的尺寸与表面压力测量方法与装置
CN109410266A (zh) * 2018-09-18 2019-03-01 合肥工业大学 基于四模Census变换和离散视差搜索的立体匹配算法
CN109523622A (zh) * 2018-11-15 2019-03-26 奥本未来(北京)科技有限责任公司 一种非结构化的光场渲染方法
CN110120071A (zh) * 2019-05-15 2019-08-13 南京工程学院 一种面向光场图像的深度估计方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JUN HUANG等: "Multi-View Multi-Label Learning With", 《IEEE ACCESS》 *
JUNFEI DING 等: "A novel light field imaging based 3D geometry measurement technique for turbomachinery blades", 《MEASUREMENT SCIENCE AND TECHNOLOGY》 *
刘润兴等: "一种聚焦式光场成像去混叠方法", 《光学学报》 *
吴军等: "基于光场极平面图像测距的三点式光笔空间坐标测量", 《光学学报》 *
李寅等: "从同心拼图中恢复深度信息", 《计算机学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113645462A (zh) * 2021-08-06 2021-11-12 深圳臻像科技有限公司 一种3d光场的转换方法及装置
CN113645462B (zh) * 2021-08-06 2024-01-16 深圳臻像科技有限公司 一种3d光场的转换方法及装置

Also Published As

Publication number Publication date
CN112750156B (zh) 2022-09-09

Similar Documents

Publication Publication Date Title
US10484663B2 (en) Information processing apparatus and information processing method
CN110135455B (zh) 影像匹配方法、装置及计算机可读存储介质
US10334168B2 (en) Threshold determination in a RANSAC algorithm
EP1303839B1 (en) System and method for median fusion of depth maps
KR101533182B1 (ko) 3d 거리
US8385630B2 (en) System and method of processing stereo images
US20050052452A1 (en) 3D computer surface model generation
EP3367334B1 (en) Depth estimation method and depth estimation apparatus of multi-view images
Long et al. Neuraludf: Learning unsigned distance fields for multi-view reconstruction of surfaces with arbitrary topologies
CN108124489B (zh) 信息处理方法、装置、云处理设备以及计算机程序产品
CN113888689A (zh) 图像渲染模型训练、图像渲染方法及装置
WO2012100225A1 (en) Systems and methods for generating a three-dimensional shape from stereo color images
CN106952247B (zh) 一种双摄像头终端及其图像处理方法和系统
EP1360647A2 (en) Depth map creation through hypothesis blending in a bayesian framework
CN113936090A (zh) 三维人体重建的方法、装置、电子设备及存储介质
Shivakumar et al. Real time dense depth estimation by fusing stereo with sparse depth measurements
CN114022542A (zh) 一种基于三维重建的3d数据库制作方法
CN114332125A (zh) 点云重建方法、装置、电子设备和存储介质
CN111179333B (zh) 一种基于双目立体视觉的散焦模糊核估计方法
Ramirez et al. Open challenges in deep stereo: the booster dataset
CN114255285B (zh) 视频与城市信息模型三维场景融合方法、系统及存储介质
CN111105451B (zh) 一种克服遮挡效应的驾驶场景双目深度估计方法
CN112750156B (zh) 光场成像系统、处理方法和装置
Cai et al. Hole-filling approach based on convolutional neural network for depth image-based rendering view synthesis
CN112258635B (zh) 基于改进双目匹配sad算法的三维重建方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 201100 room 1206, building 1, No. 951, Jianchuan Road, Minhang District, Shanghai

Applicant after: Yimu (Shanghai) Technology Co.,Ltd.

Address before: 201109 room 1103, building 1, 951 Jianchuan Road, Minhang District, Shanghai

Applicant before: Yimu (Shanghai) Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant
CP02 Change in the address of a patent holder
CP02 Change in the address of a patent holder

Address after: Room 102, 1st Floor, Building 98, No. 1441 Humin Road, Minhang District, Shanghai, 2019; Room 302, 3rd Floor, Building 98; Room 402, 4th Floor, Building 98

Patentee after: Yimu (Shanghai) Technology Co.,Ltd.

Address before: 201100 room 1206, building 1, No. 951, Jianchuan Road, Minhang District, Shanghai

Patentee before: Yimu (Shanghai) Technology Co.,Ltd.