CN108898575B - 一种新型自适应权重立体匹配方法 - Google Patents

一种新型自适应权重立体匹配方法 Download PDF

Info

Publication number
CN108898575B
CN108898575B CN201810459267.5A CN201810459267A CN108898575B CN 108898575 B CN108898575 B CN 108898575B CN 201810459267 A CN201810459267 A CN 201810459267A CN 108898575 B CN108898575 B CN 108898575B
Authority
CN
China
Prior art keywords
matching
window
image
pixel
census
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810459267.5A
Other languages
English (en)
Other versions
CN108898575A (zh
Inventor
杜娟
赵欢
徐晟�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201810459267.5A priority Critical patent/CN108898575B/zh
Publication of CN108898575A publication Critical patent/CN108898575A/zh
Application granted granted Critical
Publication of CN108898575B publication Critical patent/CN108898575B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种新型自适应权重立体匹配方法,包括,获取参考图像及目标图像,得到每个像素支持权重值的表示方法,然后本发明通过对传统自适应算法进行改进,选择CIELab色彩空间下的灰度绝对差代替RGB空间下的灰度绝对差,并引用Census非参数变换的相似性测度法用中心像素点与其邻域内的像素的关系来替代中心像素点的灰度值,最后再进行左右一致性检测、亚像素增强与中值滤波的视差后处理。本发明有效提高了匹配精度,增强了立体匹配的鲁棒性,并且改善了传统算法在低纹理区域产生的块效应。

Description

一种新型自适应权重立体匹配方法
技术领域
本发明涉及数字图像处理领域,具体涉及一种新型自适应权重立体匹配方法。
背景技术
立体匹配就是根据两个不同位置的相机对同一场景进行拍摄得到的两幅图像中寻找三维场景中的空间点在两幅图像中对应的投影点,并根据匹配点的坐标生成视差图的过程。通过双目视觉系统获取图像有着与双眼感知场景信息相同的模式,两相机获取的左右图像对又称为参考图像和目标图像,在进行立体匹配之前,左右两幅图像需经过极线校正,经过校正的左右图像像素行对齐,这样降低了立体匹配的搜索空间,提高了匹配效率。立体匹配的目标是从不同视点图像中找到匹配的对应点得到视差图,然后通过三角测量关系得到物体的景深,它被广泛的应用于医学影像、三维重构、机器人视觉导航和目标跟踪等诸多领域。
目前双目立体匹配技术的缺陷主要体现在一下几个方面:外在因素的影响难以克服、遮挡区域与弱纹理区域匹配不准确、深度不连续点的匹配问题。
发明内容
为了克服现有技术存在的缺点与不足,本发明提供一种新型自适应权重立体匹配方法。
本发明采用如下技术方案:
本发明对将CIELab色彩空间下的绝对灰度差与Census非参数变换相结合作为自适应权重算法的匹配代价函数。该算法在不显著增加原始算法复杂度的情况下提高了自适应权重算法的匹配精度。相对传统ASW算法,本发明算法所得到的视差图视觉效果相对原始算法得到明显改善,在图像深度不连续区域的匹配效果增强,如场景物体边缘区域以及前景与背景的交界处,且本发明算法总体匹配精度也得到提高,且在低纹理区域的匹配效果比传统的ASW算法更好,减少了低纹理区域的“块效应”。
一种新型自适应权重立体匹配方法,包括如下步骤:
S1左右两个相机拍摄的图像分别为左图像及右图像,设定其中一个为参考图像,另一个为目标图像,左、右图像建立初始局部匹配窗口;
S2在CIELab颜色空间中建立相似性度量表达式,然后再根据该表达式确定局部匹配窗口中每个像素支持权重值的表示方法;
S3计算匹配代价;
S4根据赢者取全的原则计算出最终视差;
S5视差处理后得到最终结果图。
局部匹配窗口大小为35*35像素。
每个像素点的支持权重的计算可由下式表示:
Figure BDA0001660469270000021
其中L代表颜色的亮度,a代表红色/品红色和绿色之间的位置,b代表黄色和蓝色之间的位置,γc和γp用来调整颜色相似性和距离接近性对支撑权重的影响程度,q为窗口内像素,p为窗口内中心像素。
所述S3中计算匹配代价,具体为:
S3.1将待处理图像转化至CIElab空间进行处理;
S3.2计算CIElab空间下的绝对色度差CAD(p,d);
Figure BDA0001660469270000022
S3.3计算Census变换匹配代价Ccensus(p,d);
S3.4由S3.2及S3.3,得出联合的匹配代价函数C(p,d)的计算公式如下:
C(p,d)=ρ(Ccensus(p,d),λc)+ρ(CAD(p,d),λAD)
式中,ρ(c,λ)是变量c的鲁棒性函数:
Figure BDA0001660469270000023
使用ρ(c,λ)对两个匹配代价进行转换主要有两个目的:1)将匹配代价值的范围映射到[0,1],这样上式就不会因为某种代价因子的异常而出现大幅度变动;2)通过λ可以控制不同的匹配代价因子在融合匹配代价中的权重。
λc,λAD为两个性能指标参数,分别用于表示CIELab空间下的绝对色度差CAD(p,d)和Census变换匹配代价Ccensus(p,d)在融合匹配代价过程之中的权重大小;
S3.5将参考图像局部窗口的权值矩阵与目标图像窗口权值矩阵相乘后的结果作为代价聚合的权重,得到匹配代价:
Figure BDA0001660469270000031
式中,d为视差层级,
Figure BDA0001660469270000032
为目标图像窗口中的像素点,p和
Figure BDA0001660469270000033
是左右图像中视差为d的左右点对,q和
Figure BDA0001660469270000034
是p邻域内和
Figure BDA0001660469270000035
邻域内对应的匹配点对,Np是左图像中以p为中心的支持向量窗的尺寸,
Figure BDA0001660469270000036
是右图像中以
Figure BDA0001660469270000037
为中心的支持向量窗的尺寸,C(p,d)为所对应像素点q和qd的匹配代价,w(p,q)与
Figure BDA0001660469270000038
分别对应这两点的权重值大小。
所述视差处理包括左右一致性检测、亚像素增强和中值滤波。
选择Census变换的窗口的大小为奇数乘奇数的窗口,小于或等于用于支持权重计算的窗口。
所述Census变换将中心像素点与其邻域内的像素的灰度值进行比较,灰度值大于中心点的位置记为1,灰度值小于或等于中心点的位置记为0,然后再将这些数字以比特串的形式进行表示,并用该值替代中心点像素的灰度值,再根据Hamming距离相似性测度得到Census变换匹配代价Ccensus(p,d),最后引入图像的颜色强度特征即CIElab空间下的绝对色度差CAD(p,d),结合鲁棒性函数ρ(c,λ),选取适当的权重值,便能得到最终的匹配代价C(p,d)的计算公式。
本发明的有益效果:
(1)在局部立体匹配算法方面,对自适应支持权重算法做出了改进,将CIELab色彩空间下的绝对灰度差与Census非参数变换相结合作为自适应权重算法的匹配代价函数,最终使得低纹理区域的块效应得到消除,各个方面的误匹配率均得到下降,并且相对其他改进算法,本发明算法的平均误匹配率较低。
(2)本发明算法通过在传统ASW算法的基础上改进相似性测度,加入了CIELab空间下的绝对灰度差与Census非参数变换,进一步提高了视差不连续区域、低纹理区域和遮挡区域的匹配精度,另外本章改进算法的复杂度与传统自适应权重算法的计算复杂度相同,因为Census变换的计算量相对权重的计算及聚合步骤的计算量可忽略不计。
(3)选择CIELab色彩空间下的灰度绝对差代替RGB空间下的灰度绝对差,并引入Census变换提高算法对噪声的抑制能力。
附图说明
图1是本发明的局部立体匹配方法的流程图;
图2是本发明的匹配代价计算方法的流程图;
图3是本发明Census变换的示意图。
具体实施方式
下面结合实施例及附图,对本发明作进一步地详细说明,但本发明的实施方式不限于此。
实施例
如图1、图2及图3所示,一种新型自适应权重立体匹配方法,包括如下步骤:
S1左右两个相机拍摄的图像分别为左图像及右图像,设定其中一个为参考图像,另一个为目标图像,左、右图像建立初始局部匹配窗口;
立体匹配是根据两个位于不同位置的相机对同一场景进行拍摄,通过双目视觉系统获取图像有着与双眼感知场景信息相同的模式,两个相机获取的左右图像对称为左图像及右图像,设定左图像为参考图像,另一个为目标图像,局部立体匹配算法的主要难点在于窗口大小的选择,窗口过大会导致边缘处及纹理丰富区域匹配精度不高,窗口过小会使得在低纹理区域不能包含的信息较少,造成匹配歧义。
本算法无需改变匹配窗口的大小,只对窗口内权值进行修改。窗口大小可以根据图片具体特征进行选择,本发明使用的局部匹配窗口大小为35*35像素。
S2在CIELab颜色空间中建立相似性度量表达式,然后再根据该表达式确定局部匹配窗口中每个像素支持权重值的表示方法;
自适应支持权重算法简称ASW算法,算法不直接考虑窗口的形状和大小,而是依据窗口邻域像素与目标像素的近似程度为其分配聚合权重。
现有技术中,根据格式塔理论,窗口中某个像素点的支持权重表示为:
w(p,q)=f(Δcpq,Δgpq)
式中,Δcpq表示窗口中的像素q与中心像素点p的色彩差异,Δgpq表示空间距离差异。f(Δcpq,Δgpq)表示根据相似性和接近性分组的聚类强度。由于Δcpq与Δgpq可以认为相互独立,故像素q的支持权重可表示为:
w(p,q)=fs(Δcpq,Δgpq)
上式所述的色彩相似性强度与空间接近性强度可以分别由以下两个式子表示:
Figure BDA0001660469270000051
Figure BDA0001660469270000052
其中γc和γp用来调整颜色相似性和距离接近性对支撑权重的影响程度。Δcpq为窗口像素q和中心像素p的颜色相似度,用CIELab颜色空间中的欧几里得距离表示。像素p在CIELab空间中的强度值为可表示为cp=[Lp,ap,bp],同理cq=[Lq,aq,bq]。其中L代表颜色的亮度,a代表红色/品红色和绿色之间的位置,b代表黄色和蓝色之间的位置。
则Δcpq可由下式给出:
Figure BDA0001660469270000053
其中Δgpq的表示窗口内像素q与目标像素p的几何接近性,即两个像素在二维图像中的欧几里得距离,若像素q的坐标为q(xq,yq),像素p的坐标为p(xp,yp),则Δgpq可通过下式给出:
Figure BDA0001660469270000054
联立上述各式,每个像素点的支持权重的计算可由下式表示:
Figure BDA0001660469270000055
S3计算匹配代价,分别计算将CIELab空间的灰度绝对值差与Census变换相结合作为新的匹配代价函数。并采用鲁棒性函数将匹配代价值的范围映射到[0,1],用以作为算法的单个像素的最终的匹配代价,如图2所示,具体步骤为:
S3.1将待处理图像转化至CIElab空间进行处理;
传统方法的灰度绝对差是建立在RGB空间上的,但对于RGB颜色空间,由于其分布的不均匀性,难以完成符合人眼色彩感觉的颜色空间分割。CIELab色度空间是国际照明委员会指定的颜色度量国际标准的基础上建立起来的,它是一种与设备无关的颜色系统,也是一种基于生理特征的颜色系统,提供了颜色刺激感知的三维表示,含有的信息量较其他颜色空间更广泛。ASW算法在计算区域权重分配时采用相似性和接近性分组,其中相似性分组就是基于CIELab空间的,本发明将匹配代价函数中的绝对灰度差也同样建立在CIELab空间上,并不需要再次增加额外的空间转换代价。
根据实际情况选择Census变换的窗口的大小为奇数乘奇数的窗口,但是所选窗口必须小于或等于用于支持权重计算的窗口。然后再选取两个性能指标参数λc,λAD,用以表示CIELab空间下的绝对色度差CAD(p,d)和Census变换匹配代价Ccensus(p,d)在融合匹配代价过程之中的权重大小。
Census非参数变换的相似性测度法用中心像素点与其邻域内的像素的关系来替代中心像素点的灰度值。该方法增强了立体匹配的鲁棒性,同时在颜色分布相似的区域,基于窗口下的Census变换比基于颜色强度差的相似度量匹配精度高,但它的计算特点也可能在具有相似结构的图像区域处引起匹配歧义,而图像的颜色强度有助于缓解这一区域的匹配问题。因此本发明将两者相结合,构建联合匹配代价函数。
S3.2计算CIElab空间下的绝对色度差CAD(p,d);
对于参考图像上的像素点p(x,y)以及视差层级d,分别计算CIELab空间下的绝对色度差CAD(p,d)和Census变换匹配代价Ccensus(p,d)。CAD(p,d)的计算公式可由下式表示:
Figure BDA0001660469270000061
S3.3计算Census变换匹配代价Ccensus(p,d);
其中Census变化的目的是将测度信息按照一定规定转化为比特串来表示。其变化示意图,如图3所示,以3*3像素窗口为例:
将除中心像素点与其邻域内的像素的灰度值进行比较,灰度值大于中心点大的位置记为1,灰度值小于或等于中心点的位置记为0,然后再将这些数字以比特串的形式进行表示,最终用该值替代中心点像素的灰度值。其可由下式表示:
Figure BDA0001660469270000062
其中:ξ(I(p),I(qi))为变换结果;p为中心像素;qi为窗口内的其他像素;I(p)和I(qi)分别为其对应的灰度值。根据映射关系得到对应的比特串,其定义如下:
Figure BDA0001660469270000071
式中,Str(x,y)为中心像素点的Census变换码;I(x,y)为窗口中心像素点的灰度值;I(x+i,y+j)为窗口内其他像素点的灰度值;
Figure BDA0001660469270000072
为位串联符。在Census变换码的基础上,利用Hamming距离相似性测度得到匹配代价,其定义如式所示:
Ccensus(p,d)=C(x,y,d)=Ham(StrL(x,y),Strr(x-d,y))
式中StrL(x,y)为左图像素点的Census变换码;Strr(x-d,y)为右图对应于左图像素点视差为d的Census变换码;C(x,y,d)为两个比特串对应位相异个数的和。
自适应支持权重区域匹配算法是局部算法中最出色的算法之一,算法的效果在某种程度上可以和全局匹配算法相媲美。算法的匹配代价计算阶段采用阶段绝对值差TAD作为相似性测度函数,最终取得了不错的效果,但相似性度量仅仅采用了像素的颜色强度值,这使得很难区分与待匹配点相邻的像素,而且由于辐射测量失真的影响,像素的颜色强度值会存在异常值,另外在低纹理区域,像素间颜色强度区别不大,容易造成误匹配。
Census变换的相似性测度法用中心像素点与其邻域内的像素的关系来替代中心像素点的灰度值。该方法增强了立体匹配的鲁棒性,同时在颜色分布相似的区域,基于窗口下的Census变换比基于颜色强度差的相似度量匹配精度高,但它的计算特点也可能在具有相似结构的图像区域处引起匹配歧义,而图像的颜色强度有助于缓解这一区域的匹配问题。因此本发明将两者相结合,构建联合匹配代价函数。
基于此,本发明提出了新的匹配度量方法,引入到自适应权重方法的匹配代价计算阶段,将CIELab空间的灰度绝对值差与Census变换相结合作为新的匹配代价函数。
S3.4由S3.2及S3.3,得出联合的匹配代价函数C(p,d)的计算公式如下:
C(p,d)=ρ(Ccensus(p,d),λc)+ρ(CAD(p,d),λAD)
式中,ρ(c,λ)是变量c的鲁棒性函数:
Figure BDA0001660469270000073
λc,λAD为两个性能指标参数,分别用于表示CIELab空间下的绝对色度差CAD(p,d)和Census变换匹配代价Ccensus(p,d)在融合匹配代价过程之中的权重大小;
S3.5将参考图像局部窗口的权值矩阵与目标图像窗口权值矩阵相乘后的结果作为代价聚合的权重,得到匹配代价:
Figure BDA0001660469270000081
式中,d为视差层级,
Figure BDA0001660469270000082
为目标图像窗口中的像素点,p和
Figure BDA0001660469270000083
是左右图像中视差为d的左右点对,q和
Figure BDA0001660469270000084
是p邻域内和
Figure BDA0001660469270000085
邻域内对应的匹配点对,Np是左图像中以p为中心的支持向量窗的尺寸,
Figure BDA0001660469270000086
是右图像中以
Figure BDA0001660469270000087
为中心的支持向量窗的尺寸,C(p,d)为所对应像素点q和qd的匹配代价,w(p,q)与
Figure BDA0001660469270000088
分别对应这两点的权重值大小。
使用ρ(c,λ)对两个匹配代价进行转换主要有两个目的:1)将匹配代价值的范围映射到[0,1],这样上式就不会因为某种代价因子的异常而出现大幅度变动;2)通过λ可以控制不同的匹配代价因子在融合匹配代价中的权重。
S4根据赢者取全的原则计算出最终视差。
S5视差处理后得到最终结果图。
所述视差处理包括左右一致性检测及亚像素增强和中值滤波。
其中,左右一致性检测主要是为了检测出两幅图像中的遮挡部分,以提高立体匹配精度。其基本思想为是:对左图和右图分别计算视差图,对应匹配点的视差图应该是相同的,过程如下:设左图像向右图像中搜索匹配点的视差值为dLR(p),右图像向左图像中搜索匹配点的视差值为dRL(p),如果左右对应的视差值的绝对值差大于阈值th(通常选择一个像素),即|dLR(p)-dRL(p)|<th,则将该点标记为遮挡点,遮挡点的视差值为无效值,可以重新赋值。对于参考图像的视差图,遮挡像素点的视差可赋值为与它左边最相邻像素点的视差值,如果遮挡点左边的所有像素的视差值均为无效值,则选取右边相邻像素点的视差值。
其中,亚像素增强方法是采用插值算法使视差图由像素级别精细到亚像素级别,使得误差更小结果更优化,其计算公式可由下式表示:
Figure BDA0001660469270000089
式中C(p,d)是点p在视差为d时所对应的匹配代价,d+=d+1,d-=d-1,d*是最终得到的亚像素级视差。
上述步骤得到的视差图还存在一些噪声点,可以采用中值滤波的方法去噪,它将毎一像素点的值设置为该点某邻域窗口内的所有像素点值的中间值,能够有效消除噪声点,使得同一深度区域的视差连续。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受所述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.一种新型自适应权重立体匹配方法,其特征在于,包括如下步骤:
S1左右两个相机拍摄的图像分别为左图像及右图像,设定其中一个为参考图像,另一个为目标图像,左、右图像建立初始局部匹配窗口;
S2在CIELab颜色空间中建立相似性度量表达式,然后再根据该表达式确定局部匹配窗口中每个像素支持权重值的表示方法;
S3计算匹配代价;
S4根据赢者取全的原则计算出最终视差;
S5视差处理后得到最终结果图;
所述S3中计算匹配代价,具体为:
S3.1将待处理图像转化至CIElab空间进行处理;
S3.2计算CIElab空间下的绝对色度差CAD(p,d);
Figure FDA0003470666700000011
S3.3计算Census变换匹配代价Ccensus(p,d);
S3.4由S3.2及S3.3,得出联合的匹配代价函数C(p,d)的计算公式如下:
C(p,d)=ρ(Ccensus(p,d),λc)+ρ(CAD(p,d),λAD)
式中,ρ(c,λ)是变量c的鲁棒性函数:
Figure FDA0003470666700000012
λc,λAD为两个性能指标参数,分别用于表示CIELab空间下的绝对色度差CAD(p,d)和Census变换匹配代价Ccensus(p,d)在融合匹配代价过程之中的权重大小;
S3.5将参考图像局部窗口的权值矩阵与目标图像窗口权值矩阵相乘后的结果作为代价聚合的权重,得到匹配代价:
Figure FDA0003470666700000013
式中,d为视差层级,
Figure FDA0003470666700000014
为目标图像窗口中的像素点,p和
Figure FDA0003470666700000015
是左右图像中视差为d的左右点对,q和
Figure FDA0003470666700000016
是p邻域内和
Figure FDA0003470666700000017
邻域内对应的匹配点对,Np是左图像中以p为中心的支持向量窗的尺寸,
Figure FDA0003470666700000018
是右图像中以
Figure FDA0003470666700000019
为中心的支持向量窗的尺寸,C(p,d)为所对应像素点q和qd的匹配代价,w(p,q)与
Figure FDA0003470666700000021
分别对应这两点的权重值大小;
所述Census变换将中心像素点与其邻域内的像素的灰度值进行比较,灰度值大于中心点的位置记为1,灰度值小于或等于中心点的位置记为0,然后再将这些数字以比特串的形式进行表示,并用该值替代中心点像素的灰度值,再根据Hamming距离相似性测度得到Census变换匹配代价Ccensus(p,d),最后引入图像的颜色强度特征即CIElab空间下的绝对色度差CAD(p,d),结合鲁棒性函数ρ(c,λ),选取适当的权重值,便能得到最终的匹配代价C(p,d)的计算公式。
2.根据权利要求1所述的一种新型自适应权重立体匹配方法,其特征在于,局部匹配窗口大小为35*35像素。
3.根据权利要求1所述的一种新型自适应权重立体匹配方法,其特征在于,每个像素点的支持权重的计算可由下式表示:
Figure FDA0003470666700000022
其中L代表颜色的亮度,a代表红色/品红色和绿色之间的位置,b代表黄色和蓝色之间的位置,γc和γp用来调整颜色相似性和距离接近性对支撑权重的影响程度,q为窗口内像素,p为窗口内中心像素。
4.根据权利要求1所述的一种新型自适应权重立体匹配方法,其特征在于,所述视差处理包括左右一致性检测、亚像素增强和中值滤波。
5.根据权利要求1所述的一种新型自适应权重立体匹配方法,其特征在于,选择Census变换的窗口的大小为奇数乘奇数的窗口,小于或等于用于支持权重计算的窗口。
CN201810459267.5A 2018-05-15 2018-05-15 一种新型自适应权重立体匹配方法 Active CN108898575B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810459267.5A CN108898575B (zh) 2018-05-15 2018-05-15 一种新型自适应权重立体匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810459267.5A CN108898575B (zh) 2018-05-15 2018-05-15 一种新型自适应权重立体匹配方法

Publications (2)

Publication Number Publication Date
CN108898575A CN108898575A (zh) 2018-11-27
CN108898575B true CN108898575B (zh) 2022-04-22

Family

ID=64343025

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810459267.5A Active CN108898575B (zh) 2018-05-15 2018-05-15 一种新型自适应权重立体匹配方法

Country Status (1)

Country Link
CN (1) CN108898575B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109978934B (zh) * 2019-03-04 2023-01-10 北京大学深圳研究生院 一种基于匹配代价加权的双目视觉立体匹配方法及系统
CN110111339B (zh) * 2019-04-28 2023-08-15 航天智造(上海)科技有限责任公司 条纹图像目标区域提取方法
CN110211053B (zh) * 2019-04-28 2023-09-15 航天智造(上海)科技有限责任公司 用于三维测量的快速精确相位匹配方法
CN110473219A (zh) * 2019-07-31 2019-11-19 天津大学 基于邻域相关信息的立体匹配方法
CN110853086A (zh) * 2019-10-21 2020-02-28 北京清微智能科技有限公司 基于散斑投影的深度图像生成方法及系统
CN111768437B (zh) * 2020-06-30 2023-09-05 中国矿业大学 一种用于矿井巡检机器人的图像立体匹配方法及装置
CN111914913B (zh) * 2020-07-17 2023-10-31 三峡大学 一种新型立体匹配优化方法
CN112200852B (zh) * 2020-10-09 2022-05-20 西安交通大学 一种时空混合调制的立体匹配方法及系统
CN112750154A (zh) * 2020-12-31 2021-05-04 湖南大学 一种基于双目视觉的立体匹配方法
CN117169872B (zh) * 2023-08-25 2024-03-26 广州珠观科技有限公司 一种基于立体摄像机和毫米波雷达信息融合的机器人自主导航系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105513064A (zh) * 2015-12-03 2016-04-20 浙江万里学院 一种基于图像分割和自适应权重的立体匹配方法
CN107578430A (zh) * 2017-07-26 2018-01-12 昆明理工大学 一种基于自适应权值和局部熵的立体匹配方法
CN108010075A (zh) * 2017-11-03 2018-05-08 华南理工大学 一种基于多特征联合的局部立体匹配方法
EP3330664A1 (en) * 2015-07-29 2018-06-06 KYOCERA Corporation Parallax calculating device, stereo camera device, vehicle, and parallax calculating method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3330664A1 (en) * 2015-07-29 2018-06-06 KYOCERA Corporation Parallax calculating device, stereo camera device, vehicle, and parallax calculating method
CN105513064A (zh) * 2015-12-03 2016-04-20 浙江万里学院 一种基于图像分割和自适应权重的立体匹配方法
CN107578430A (zh) * 2017-07-26 2018-01-12 昆明理工大学 一种基于自适应权值和局部熵的立体匹配方法
CN108010075A (zh) * 2017-11-03 2018-05-08 华南理工大学 一种基于多特征联合的局部立体匹配方法

Also Published As

Publication number Publication date
CN108898575A (zh) 2018-11-27

Similar Documents

Publication Publication Date Title
CN108898575B (zh) 一种新型自适应权重立体匹配方法
CN111066065B (zh) 用于混合深度正则化的系统和方法
US10909707B2 (en) System and methods for measuring depth using an array of independently controllable cameras
US9407896B2 (en) Multi-view synthesis in real-time with fallback to 2D from 3D to reduce flicker in low or unstable stereo-matching image regions
RU2423018C2 (ru) Способ и система для преобразования стереоконтента
US20110032341A1 (en) Method and system to transform stereo content
CN107578430B (zh) 一种基于自适应权值和局部熵的立体匹配方法
US8994722B2 (en) Method for enhancing depth images of scenes using trellis structures
CN102665086A (zh) 利用基于区域的局部立体匹配获取视差的方法
CN106530336B (zh) 基于色彩信息和图割理论的立体匹配方法
CN110853027A (zh) 一种基于局部变动和全局变化的三维合成图像无参考质量评价方法
CN111553862A (zh) 一种海天背景图像去雾和双目立体视觉定位方法
CN110866882A (zh) 基于深度置信度的分层联合双边滤波深度图修复算法
CN104038752B (zh) 基于三维高斯混合模型的多视点视频直方图颜色校正
US10893258B1 (en) Displacement-oriented view synthesis system and method
US20120206442A1 (en) Method for Generating Virtual Images of Scenes Using Trellis Structures
CN112200852B (zh) 一种时空混合调制的立体匹配方法及系统
CN108810511A (zh) 一种基于视点一致性的多视点压缩深度视频增强方法
CN110827338B (zh) 一种分区域自适应匹配的光场数据深度重建方法
JP5840114B2 (ja) 仮想画像を生成する方法
CN112104856A (zh) 低复杂度二维影像视讯转换成三维影像视讯的方法
KR101608804B1 (ko) 품질 향상을 위한 변이 지도의 경계 왜곡 보정 기반 가상시점 영상 생성 방법
Brites et al. Epipolar plane image based rendering for 3D video coding
CN109698950B (zh) 立体视觉系统的增强方法及立体视觉系统
CN113610964B (zh) 一种基于双目视觉的三维重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant