CN113610964B - 一种基于双目视觉的三维重建方法 - Google Patents

一种基于双目视觉的三维重建方法 Download PDF

Info

Publication number
CN113610964B
CN113610964B CN202110909526.1A CN202110909526A CN113610964B CN 113610964 B CN113610964 B CN 113610964B CN 202110909526 A CN202110909526 A CN 202110909526A CN 113610964 B CN113610964 B CN 113610964B
Authority
CN
China
Prior art keywords
image
value
matching cost
octave
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110909526.1A
Other languages
English (en)
Other versions
CN113610964A (zh
Inventor
李纯明
吴玉晗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Publication of CN113610964A publication Critical patent/CN113610964A/zh
Application granted granted Critical
Publication of CN113610964B publication Critical patent/CN113610964B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于双目视觉的三维重建方法,通过双目相机获取物体的第一图像和第二图像,然后将所述第一图像进行高斯下采样得到第一高斯金字塔,将所述第二图像进行高斯下采样得到第二高斯金字塔,确定出所述第一高斯金字塔中所有图像中每一个像素点的匹配代价值,确定出所述第二高斯金字塔中所有图像中每一个像素点的匹配代价值,基于所述匹配代价值确定每一个像素点的代价聚合值,并根据所述代价聚合值进行时差计算获得所述物体的三维空间坐标,根据所述三维空间坐标完成所述物体的三维重建,能够准确的对物体进行三维重建,且结构简单、成本较低。

Description

一种基于双目视觉的三维重建方法
技术领域
本发明属于网络组网技术领域,具体涉及一种基于片上网络的光纤通道和以太网组网方法。
背景技术
在立体视觉中,模拟人类视觉一样采用两台相机拍摄物体图像,然后通过分析两幅图像中的位置偏差确定出物体的三维坐标,构建成点云完成对物体的三维重建,这便是双目立体视觉,也即双目视觉。
通常来说,使用双目视觉来进行物体的三维重建分为这样几个步骤:拍摄图像、相机标定、图像校正、立体匹配和三维重建,相机标定是通过计算左右相机的内部参数与外部坐标系位置参数,以确定空间某点与其在二维图像中的位置之间的对应关系,图像校正是因为光学设备会引起图像畸变,需要校正以方便匹配,立体匹配是在图像中准确快速地找到对应的同名点以建立起匹配关系,然后根据相机标定时获取的内外参数,从而计算出场景目标的深度值,从而完成三维重建。
现有技术中在进行立体匹配时,采用Census变换作为匹配代价,Census变换是一种非参数图像变换,然后基于自适应的十字交叉域的匹配代价聚合,但是Census变换的结果对中心点的灰度值依赖性过大,且自适应的十字交叉域的匹配代价聚合可靠性不够高,会降低最后的匹配精度。
因此,如何提高物体进行三维重建的精度,是本领域技术人员有待解决的技术问题。
发明内容
本发明的目的是为了提高对物体进行三维重建的精度,提出了一种基于双目视觉的三维重建方法。
本发明的技术方案为:一种基于双目视觉的三维重建方法,包括以下步骤:
S1、通过双目相机获取物体的第一图像和第二图像;
S2、将所述第一图像进行高斯下采样得到第一高斯金字塔,将所述第二图像进行高斯下采样得到第二高斯金字塔;
S3、确定出所述第一高斯金字塔中所有图像中每一个像素点的匹配代价值,确定出所述第二高斯金字塔中所有图像中每一个像素点的匹配代价值;
S4、基于所述匹配代价值确定每一个像素点的代价聚合值,并根据所述代价聚合值进行时差计算获得所述物体的三维空间坐标;
S5、根据所述三维空间坐标完成所述物体的三维重建。
进一步地,所述步骤S2中的将所述第一图像进行高斯下采样得到第一高斯金字塔具体包括以下分步骤:
S211、将所述第一图像扩大一倍得到第一基础图像,并对所述第一基础图像进行不同级别的高斯模糊;
S212、将每一个级别的高斯模糊下的图像集合在一起作为所述第一图像的第一个八度;
S213、将所述第一图像的第一个八度中最模糊的图像的长和宽分别缩短一倍作为基础图像;
S214、根据所述基础图像确定出第一图像的第二个八度;
S215、根据所述第一图像的第二个八度确定出所述第一图像的第三个八度、所述第一图像的第四个八度直到所述第一图像的第N个八度;
S216、将所有所述第一图像的八度组合在一起作为所述第一高斯金字塔。
进一步地,所述步骤S2中的将所述第二图像进行高斯下采样得到第二高斯金字塔具体包括以下分步骤:
S221、将所述第二图像扩大一倍得到第二基础图像,并对所述第二基础图像进行不同级别的高斯模糊;
S222、将每一个级别的高斯模糊下的图像集合在一起作为所述第二图像的第一个八度;
S223、将所述第二图像的第一个八度中最模糊的图像的长和宽分别缩短一倍作为基础图像;
S224、根据所述基础图像确定出所述第二图像的第二个八度;
S225、根据所述第二图像的第二个八度确定出所述第二图像的第三个八度、所述第二图像的第四个八度直到所述第二图像的第M个八度;
S226、将所有所述第二图像的八度组合在一起作为所述第二高斯金字塔。
Figure BDA0003202996830000021
式中,C0为匹配代价值,Ccenst(p,d)为像素p在视差为d时的Census变换匹配代价值,CAD(p,d)为像素p在视差为d时的AD变换匹配代价值,Cgrad(p,d)为像素p在视差为d时的梯度变换匹配代价值,exp为常数e的指数,λc、λAD、λG分别为Census变换、AD变换、梯度变换的系数。
进一步地,在每一幅图像中设置窗口,并确定窗口内所有像素点的匹配代价值,从而确定所有图像中每一个像素点的匹配代价值。
进一步地,所述窗口内的中心点的匹配代价值确定方法包括如下步骤:
A1、确定出所述窗口内除了中心点外所有像素点的匹配代价值的平均值;
A2、确定出所述窗口内中心点的匹配代价值;
A3、确定出所述平均值和所述窗口内中心点的匹配代价值的差值,并取所述差值的绝对值
A3、设置一个阈值,并根据所述阈值和所述绝对值更新所述窗口内中心点的匹配代价值。
与现有技术相比,本发明具备以下有益效果:
(1)本发明通过双目相机获取物体的第一图像和第二图像,然后将所述第一图像进行高斯下采样得到第一高斯金字塔,将所述第二图像进行高斯下采样得到第二高斯金字塔,确定出所述第一高斯金字塔中所有图像中每一个像素点的匹配代价值,确定出所述第二高斯金字塔中所有图像中每一个像素点的匹配代价值,基于所述匹配代价值确定每一个像素点的代价聚合值,并根据所述代价聚合值进行时差计算获得所述物体的三维空间坐标,根据所述三维空间坐标完成所述物体的三维重建,能够准确的对物体进行三维重建,且结构简单、成本较低。
(2)本发明中的匹配代价值确定公式结合了Census变换和AD变换和梯度变换,减少计算匹配代价值时对窗口中心点的依赖,增强了匹配效果。
附图说明
图1所示为本发明实施例提供的一种基于双目视觉的三维重建方法的流程示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请提出了一种基于双目视觉的三维重建方法,如图1所示为本申请实施例提出的一种基于双目视觉的三维重建方法的流程示意图,该方法包括以下步骤:
步骤S1、通过双目相机获取物体的第一图像和第二图像。
步骤S2、将所述第一图像进行高斯下采样得到第一高斯金字塔,将所述第二图像进行高斯下采样得到第二高斯金字塔。
在本申请实施例中,所述步骤S2中的将所述第一图像进行高斯下采样得到第一高斯金字塔具体包括以下分步骤:
S211、将所述第一图像扩大一倍得到第一基础图像,并对所述第一基础图像进行不同级别的高斯模糊;
S212、将每一个级别的高斯模糊下的图像集合在一起作为所述第一图像的第一个八度;
S213、将所述第一图像的第一个八度中最模糊的图像的长和宽分别缩短一倍作为基础图像;
S214、根据所述基础图像确定出第一图像的第二个八度;
S215、根据所述第一图像的第二个八度确定出所述第一图像的第三个八度、所述第一图像的第四个八度直到所述第一图像的第N个八度;
S216、将所有所述第一图像的八度组合在一起作为所述第一高斯金字塔。
所述步骤S2中的将所述第二图像进行高斯下采样得到第二高斯金字塔具体包括以下分步骤:
S221、将所述第二图像扩大一倍得到第二基础图像,并对所述第二基础图像进行不同级别的高斯模糊;
S222、将每一个级别的高斯模糊下的图像集合在一起作为所述第二图像的第一个八度;
S223、将所述第二图像的第一个八度中最模糊的图像的长和宽分别缩短一倍作为基础图像;
S224、根据所述基础图像确定出所述第二图像的第二个八度;
S225、根据所述第二图像的第二个八度确定出所述第二图像的第三个八度、所述第二图像的第四个八度直到所述第二图像的第M个八度;
S226、将所有所述第二图像的八度组合在一起作为所述第二高斯金字塔。
具体的,将左右两幅图也即第一图像和第二图像,分别进行高斯下采样,成为金字塔型,一般首先将图像扩大一倍,在扩大的图像的基础之上构建高斯金字塔,然后对该尺寸下图像进行高斯模糊,几幅模糊之后的图像集合构成了一个八度,然后对该八度下的最模糊的一幅图像进行下采样的过程,长和宽分别缩短一倍,图像面积变为原来四分之一。这幅图像就是下一个八度的初始图像也即基础图像,在初始图像的基础上完成属于这个八度的高斯模糊处理,以此类推完成整个算法所需要的所有八度构建,这样就构建出高斯金字塔,包括第一高斯金字塔和第二高斯金字塔,构建的N个八度,可由本领域技术人员根据实际情况灵活设置。
步骤S3、确定出所述第一高斯金字塔中所有图像中每一个像素点的匹配代价值,确定出所述第二高斯金字塔中所有图像中每一个像素点的匹配代价值。
在本申请实施例中,在每一幅图像中设置窗口,并确定窗口内所有像素点的匹配代价值,从而确定所有图像中每一个像素点的匹配代价值。
在本申请实施例中,所述窗口内的中心点的匹配代价值确定方法包括如下步骤:
A1、确定出所述窗口内除了中心点外所有像素点的匹配代价值的平均值;
A2、确定出所述窗口内中心点的匹配代价值;
A3、确定出所述平均值和所述窗口内中心点的匹配代价值的差值,并取所述差值的绝对值
A3、设置一个阈值,并根据所述阈值和所述绝对值更新所述窗口内中心点的匹配代价值。
具体的,本文设置阈值T的值为9,这样的改进是针对,当中心像素点突变时,还可以稳定住变换结果,降低噪声影响,设置阈值,是为了当出现邻域窗口覆盖住图像边缘时,更好地保留图像边缘,如果暴力均值化,全部采用窗口内像素灰度值均值作中心像素,会使图像中的细节丢失,致使最终的视差图质量不够高,其中,领域窗口也即窗口中除了中心点的所有像素点集合。
根据阈值和绝对值更新窗口内中心点的公式如下:
Figure BDA0003202996830000051
Figure BDA0003202996830000052
式中,If(x,y)是改进的Census变换后中心点灰度值结果,
Figure BDA0003202996830000053
表示该邻域窗口内除了中心像素外所有像素灰度值的平均值,I(x,y)为该邻域窗口内中心像素点p的灰度值,T为设定的阈值,IZ(P)为窗口中心像素点的值,I(q)为窗口内其他像素点的值。
将左右图像也即第一图像和第二图像的像素点的RGB颜色分量之差的绝对值取平均,作为AD变换值,即图像的RGB三通道强度值来计算,这样可以利用好图像中的颜色信息,对于深度不连续区域或者遮挡区域等都会有提高匹配精度的作用,AD变换公式如下:
Figure BDA0003202996830000054
式中,CAD(p,d)为像素p在视差为d时的AD变换匹配代价值,N代表分别为RGB三通道,INL(p)表示左图像也即第一图像p点在通道N的像素值,INR(p,d)为p点在右图像也即第二图像相应位置偏移d时差距离后的N通道的像素值,TAD为截断阈值,大于阈值的可以不予考虑。
由于梯度变换既能更好地保护图像中的边缘特征,同时还具有方向性,故能提升在深度不连续区域的匹配精度,同时针对弱纹理重复纹理区域有更好的匹配效果,可以将其与AD变换Census变换一起加权作为匹配代价。梯度变换公式如下:
Figure BDA0003202996830000061
式中,Cgrad(p,d)为像素p在视差为d时的梯度变换匹配代价值,
Figure BDA0003202996830000062
Figure BDA0003202996830000063
表示第一图像和第二图像分别N通道时在x方向的梯度图像,/>
Figure BDA0003202996830000064
Figure BDA0003202996830000065
分别表示第一图像和第二图像分别N通道时在y方向的梯度图像。
故本申请中计算像素点的匹配代价值的公式为:
Figure BDA0003202996830000066
式中,C0为匹配代价值,Ccenst(p,d)为像素p在视差为d时的Census变换匹配代价值,CAD(p,d)为像素p在视差为d时的AD变换匹配代价值,Cgrad(p,d)为像素p在视差为d时的梯度变换匹配代价值,exp为常数e的指数,λc、λAD、λG分别为Census变换、AD变换、梯度变换的系数。
步骤S4、基于所述匹配代价值确定每一个像素点的代价聚合值,并根据所述代价聚合值进行时差计算获得所述物体的三维空间坐标。
具体的,求得每个像素点的匹配代价值后,为了增强匹配代价的可靠性和鲁棒性,需要进行代价聚合步骤,以增加像素点的信息量。先构建十字交叉动态域,基于某像素点,以该像素点为中心,通过一些规则,在水平方向和竖直方向上分别四个方向进行臂长的延伸,而形成一个十字交叉域窗口,延伸的规则是:当该像素颜色与中心像素点颜色值接近时,便继续延伸,当该像素点与中心像素点颜色值的绝对差值大于阈值时,以及臂长超过了一定的臂长值的阈值时,则该条臂便不再延伸,这样便对臂长作出一定的约束,构建好中心像素点的十字交叉域之后,再加入距离权重,可以进一步提高匹配精度,即离中心像素点近的像素点拥有更大的权重,距离较远的,意味着可能不属于同一视差了,需要赋予更小权重,以降低误匹配率。
需要说明的是,通过上述代价聚合后,也即完成了立体匹配工作,所得到的结果图是视差值,通过公式计算,能够得到每个像素点的深度值,从而得到三维坐标和重建结果。
步骤S5、根据所述三维空间坐标完成所述物体的三维重建。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (3)

1.一种基于双目视觉的三维重建方法,其特征在于,包括以下步骤:
S1、通过双目相机获取物体的第一图像和第二图像;
S2、将所述第一图像进行高斯下采样得到第一高斯金字塔,将所述第二图像进行高斯下采样得到第二高斯金字塔;
S3、确定出所述第一高斯金字塔中所有图像中每一个像素点的匹配代价值,确定出所述第二高斯金字塔中所有图像中每一个像素点的匹配代价值;
S4、基于所述匹配代价值确定每一个像素点的代价聚合值,并根据所述代价聚合值进行时差计算获得所述物体的三维空间坐标;
S5、根据所述三维空间坐标完成所述物体的三维重建;
具体通过如下公式确定出所述第一高斯金字塔中所有图像中每一个像素点的匹配代价值,以及确定出所述第二高斯金字塔中所有图像中每一个像素点的匹配代价值:
Figure QLYQS_1
式中,C0为匹配代价值,Ccenst(p,d)为像素p在视差为d时的Census变换匹配代价值,CAD(p,d)为像素p在视差为d时的AD变换匹配代价值,Cgrad(p,d)为像素p在视差为d时的梯度变换匹配代价值,exp为常数e的指数,λc、λAD、λG分别为Census变换、AD变换、梯度变换的系数;
在每一幅图像中设置窗口,并确定窗口内所有像素点的匹配代价值,从而确定所有图像中每一个像素点的匹配代价值;
所述窗口内的中心点的匹配代价值确定方法包括如下步骤:
A1、确定出所述窗口内除了中心点外所有像素点的匹配代价值的平均值;
A2、确定出所述窗口内中心点的匹配代价值;
A3、确定出所述平均值和所述窗口内中心点的匹配代价值的差值,并取所述差值的绝对值;
A3、设置一个阈值,并根据所述阈值和所述绝对值更新所述窗口内中心点的匹配代价值;
根据阈值和绝对值更新窗口内中心点的公式如下:
Figure QLYQS_2
Figure QLYQS_3
式中,If(x,y)是改进的Census变换后中心点灰度值结果,
Figure QLYQS_4
表示邻域窗口内除了中心像素外所有像素灰度值的平均值,I(x,y)为该邻域窗口内中心像素点p的灰度值,T为设定的阈值,IZ(P)为窗口中心像素点的值,I(q)为窗口内其他像素点的值;
AD变换公式如下:
Figure QLYQS_5
式中,CAD(p,d)为像素p在视差为d时的AD变换匹配代价值,N代表分别为RGB三通道,INL(p)表示左图像也即第一图像p点在通道N的像素值,INR(p,d)为p点在右图像也即第二图像相应位置偏移d时差距离后的N通道的像素值,TAD为截断阈值;
梯度变换公式如下:
Figure QLYQS_6
式中,Cgrad(p,d)为像素p在视差为d时的梯度变换匹配代价值,
Figure QLYQS_7
和/>
Figure QLYQS_8
表示第一图像和第二图像分别N通道时在x方向的梯度图像,/>
Figure QLYQS_9
和/>
Figure QLYQS_10
分别表示第一图像和第二图像分别N通道时在y方向的梯度图像。
2.如权利要求1所述的基于双目视觉的三维重建方法,其特征在于,所述步骤S2中的将所述第一图像进行高斯下采样得到第一高斯金字塔具体包括以下分步骤:
S211、将所述第一图像扩大一倍得到第一基础图像,并对所述第一基础图像进行不同级别的高斯模糊;
S212、将每一个级别的高斯模糊下的图像集合在一起作为所述第一图像的第一个八度;
S213、将所述第一图像的第一个八度中最模糊的图像的长和宽分别缩短一倍作为基础图像;
S214、根据所述基础图像确定出第一图像的第二个八度;
S215、根据所述第一图像的第二个八度确定出所述第一图像的第三个八度、所述第一图像的第四个八度直到所述第一图像的第N个八度;
S216、将所有所述第一图像的八度组合在一起作为所述第一高斯金字塔。
3.如权利要求1所述的基于双目视觉的三维重建方法,其特征在于,所述步骤S2中的将所述第二图像进行高斯下采样得到第二高斯金字塔具体包括以下分步骤:
S221、将所述第二图像扩大一倍得到第二基础图像,并对所述第二基础图像进行不同级别的高斯模糊;
S222、将每一个级别的高斯模糊下的图像集合在一起作为所述第二图像的第一个八度;
S223、将所述第二图像的第一个八度中最模糊的图像的长和宽分别缩短一倍作为基础图像;
S224、根据所述基础图像确定出所述第二图像的第二个八度;
S225、根据所述第二图像的第二个八度确定出所述第二图像的第三个八度、所述第二图像的第四个八度直到所述第二图像的第M个八度;
S226、将所有所述第二图像的八度组合在一起作为所述第二高斯金字塔。
CN202110909526.1A 2021-05-18 2021-08-09 一种基于双目视觉的三维重建方法 Active CN113610964B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2021105384686 2021-05-18
CN202110538468 2021-05-18

Publications (2)

Publication Number Publication Date
CN113610964A CN113610964A (zh) 2021-11-05
CN113610964B true CN113610964B (zh) 2023-06-02

Family

ID=78307709

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110909526.1A Active CN113610964B (zh) 2021-05-18 2021-08-09 一种基于双目视觉的三维重建方法

Country Status (1)

Country Link
CN (1) CN113610964B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820991A (zh) * 2015-05-15 2015-08-05 武汉大学 一种基于代价矩阵的多重软约束立体匹配方法
CN106340036A (zh) * 2016-08-08 2017-01-18 东南大学 一种基于双目立体视觉的立体匹配方法
CN111415305A (zh) * 2020-03-10 2020-07-14 桂林电子科技大学 恢复三维场景的方法、计算机可读存储介质及无人机
CN111833393A (zh) * 2020-07-05 2020-10-27 桂林电子科技大学 一种基于边缘信息的双目立体匹配方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9674505B2 (en) * 2014-12-09 2017-06-06 Intel Corporation Disparity search range determination for images from an image sensor array

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820991A (zh) * 2015-05-15 2015-08-05 武汉大学 一种基于代价矩阵的多重软约束立体匹配方法
CN106340036A (zh) * 2016-08-08 2017-01-18 东南大学 一种基于双目立体视觉的立体匹配方法
CN111415305A (zh) * 2020-03-10 2020-07-14 桂林电子科技大学 恢复三维场景的方法、计算机可读存储介质及无人机
CN111833393A (zh) * 2020-07-05 2020-10-27 桂林电子科技大学 一种基于边缘信息的双目立体匹配方法

Also Published As

Publication number Publication date
CN113610964A (zh) 2021-11-05

Similar Documents

Publication Publication Date Title
CN107578430B (zh) 一种基于自适应权值和局部熵的立体匹配方法
CN110866882B (zh) 基于深度置信度的分层联合双边滤波深度图修复方法
CN111833393A (zh) 一种基于边缘信息的双目立体匹配方法
CN108596975B (zh) 一种针对弱纹理区域的立体匹配算法
CN107316326B (zh) 应用于双目立体视觉的基于边的视差图计算方法和装置
CN106651897B (zh) 一种基于超像素分割的视差修正方法
CN112529854B (zh) 一种噪声估计方法、装置、存储介质及设备
KR20110014067A (ko) 스테레오 컨텐트의 변환 방법 및 시스템
RU2419880C2 (ru) Способ и устройство для вычисления и фильтрации карты диспарантности на основе стерео изображений
CN106530336A (zh) 基于色彩信息和图割理论的立体匹配算法
CN116664451B (zh) 基于多图像处理的测量机器人测量优化方法
CN115601406A (zh) 基于融合代价计算和加权引导滤波的局部立体匹配方法
CN111179333B (zh) 一种基于双目立体视觉的散焦模糊核估计方法
CN112200848A (zh) 低光照弱对比复杂环境下的深度相机视觉增强方法及系统
JP2019091122A (ja) デプスマップフィルタ処理装置、デプスマップフィルタ処理方法及びプログラム
CN108805841B (zh) 一种基于彩色图引导的深度图恢复及视点合成优化方法
CN113643427A (zh) 一种双目测距及三维重建方法
CN114120012A (zh) 一种基于多特征融合和树形结构代价聚合的立体匹配方法
CN111369435B (zh) 基于自适应稳定模型的彩色图像深度上采样方法及系统
KR102327304B1 (ko) 깊이영상 카메라로부터 획득된 3d 영상의 품질 향상 방법
CN113610964B (zh) 一种基于双目视觉的三维重建方法
CN117152330A (zh) 一种基于深度学习的点云3d模型贴图方法和装置
CN117058183A (zh) 一种基于双摄像头的图像处理方法、装置、电子设备及存储介质
CN115035175B (zh) 一种三维模型构建数据处理方法及系统
CN114998532B (zh) 一种基于数字图像重建的三维影像视觉传达优化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant