CN113763269A - 一种用于双目图像的立体匹配方法 - Google Patents

一种用于双目图像的立体匹配方法 Download PDF

Info

Publication number
CN113763269A
CN113763269A CN202111003779.9A CN202111003779A CN113763269A CN 113763269 A CN113763269 A CN 113763269A CN 202111003779 A CN202111003779 A CN 202111003779A CN 113763269 A CN113763269 A CN 113763269A
Authority
CN
China
Prior art keywords
cost
parallax
initial
census
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111003779.9A
Other languages
English (en)
Other versions
CN113763269B (zh
Inventor
王春媛
余嘉昕
李岩
罗菁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai University of Engineering Science
Original Assignee
Shanghai University of Engineering Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai University of Engineering Science filed Critical Shanghai University of Engineering Science
Priority to CN202111003779.9A priority Critical patent/CN113763269B/zh
Publication of CN113763269A publication Critical patent/CN113763269A/zh
Application granted granted Critical
Publication of CN113763269B publication Critical patent/CN113763269B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明提供一种用于双目图像的立体匹配方法,包括以下步骤:S1:通过双目立体视觉传感器获取左、右两幅图像,并分别在左、右两幅图像中选取待匹配像素点进行在视差为d时的GAD‑Double Census变换,获取待匹配像素点在视差为d时的初始匹配代价;S2:分别获取左、右图像的所有像素点在视差范围内所有视差下的初始匹配代价,形成初始代价空间;S3:采用权值跃变双边滤波器对左、右图像的初始代价空间的初始匹配代价进行聚合,获取聚合后的代价空间;S4:在聚合后的代价空间中,计算左、右两幅图像的每个像素点的初始视差值,并根据初始视差值获取左、右两幅图像的初始视差图;S5:对初始视差图进行优化。与现有技术相比,该方法能够获取高精度的视差图。

Description

一种用于双目图像的立体匹配方法
技术领域
本发明涉及机器视觉技术领域,尤其是涉及一种用于双目图像的立体匹配方法。
背景技术
机器视觉实质是通过模拟人的双眼来感知世界,双目立体视觉在机器视觉技术领域中扮演着尤为重要的角色,其在三维重建、自动驾驶、人脸识别和工业自动化方面得到广泛应用。
其中,立体匹配是双目立体视觉研究中最核心最关键的部分,通过立体匹配算法,可以获取两幅图像的稠密视差图,再根据摄影坐标变换原理及三角计算原理得到场景中对应点的深度信息,最后通过三维重建还原立体场景。由于视差图的精度和准确性直接决定最后三维重建的精度和准确性,探索精确的立体匹配方法尤为关键。
科研人员经过十多年的不懈探索和研究,提出了多种先进的立体匹配算法,使得立体匹配的精度不断提高,但是在图像弱纹理区域的误匹配和边缘区域的模糊等问题仍然或多或少地存在。其中AD变换[参见:Birchfield S,Tomasi C.A pixel dissimilaritymeasure that is insensitive to image sampling[J]//IEEE Transactions on PaternAnalysis and Machine Intelligence(一种对图像采样不敏感的像素非相似性度量,IEEE模式分析和机器智能汇刊),1998,20(4):401-406.]可以较好地反映像素点的灰度变化,在纹理丰富的图像边缘区域具有良好的匹配效果,但AD变换对由光照变化产生的噪点十分敏感,鲁棒性较差。Census变换[参见:
Figure BDA0003236529160000011
D,Sutherland A.Disparity estimation bysimultaneous edge drawing[C]//Asian Conference on Computer Vision(同步边缘绘制的视差估计,亚洲计算机视觉会议),2016:124-135.]能够抑制噪点的产生,在灰度变化小的平滑区域匹配效果好,但在具有类似结构的重复区域内匹配效果不理想。
AD-Census变换[参见:Mei X,Sun X,Zhou M,et al.On building an accuratestereo matching system on graphics hardware[C]//IEEE International Conferenceon Computer Vision Workshops(在图形硬件上构建准确的立体匹配系统,IEEE计算机视觉国际会议研讨会).IEEE,2012,21(5):467-474]将AD变换和Census变换得到的代价合成一个综合代价,弥补了单个变换的不足。但是该方法仍然有可改进之处,AD变换基于RGB颜色空间,RGB颜色模型对颜色的描述具有局限性,因为在图像中的同一个场景中,RGB的分量的变化很相同,所以RGB颜色空间不能够有效的提取出场景的信息,所以基于RGB颜色空间的AD变换代价有进一步提升的空间。Census变换对窗口的中心像素高度敏感,特别是在复杂环境条件下,只要中心像素受到光照等不良因素的影响,造成其像素值畸变,都会导致Census变换码发生很大的改变,从而极大地增加了视差图中对应像素点发生错误匹配的概率。在左右图进行匹配代价计算时,为了让代价值能够准确的反映像素之间的相关性,建立相邻像素之间的联系,必须对初始代价进行代价聚合。即每个像素在某个视差下的新代价值都会根据其相邻像素在同一视差值下的代价值进行重新计算,得到聚合后的新的代价。在代价聚合阶段,AD-Census以相邻像素点的灰度差及空间距离限制生成十字臂,在以十字臂支撑的异形窗口内进行代价聚合。该方法可以最大限度地让视差连续的像素的代价进行聚合,处于视差不连续区域的像素的代价不参与聚合,保证了代价聚合的效果,但需先生成十字臂及十字臂支撑的窗口,较为费时,且聚合时各像素的代价按同等权重进行聚合,不能全面地反映像素之间的同类性关系。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种用于双目图像的立体匹配方法,该方法能够获取高精度的视差图。
本发明的目的可以通过以下技术方案来实现:
一种用于双目图像的立体匹配方法,包括以下步骤:
S1:通过双目立体视觉传感器获取待匹配的左、右两幅图像,并分别在左、右两幅图像中选取待匹配像素点进行在视差为d时的GAD变换、基于Census变换和改进Census变换的加权融合变换(以下简称:Double census变换)和所述GAD变换与Double Census变换的加权融合变换(以下简称GAD-Double Census变换),获取所述待匹配像素点在视差为d时的初始匹配代价;
S2:根据极线约束原则和视差范围,分别获取左、右图像的所有像素点在视差范围内所有视差下的初始匹配代价,形成左、右图像的初始代价空间;
S3:采用权值跃变双边滤波器对左、右图像的初始代价空间的初始匹配代价进行聚合,获取聚合后的代价空间;
S4:在聚合后的代价空间中,计算左、右两幅图像的每个像素点在最小代价下时所对应的视差值,即初始视差值,并根据初始视差值获取左、右两幅图像的初始视差图;
S5:对所述初始视差图进行优化,获取高精度的视差图。
优选地,所述S1包括以下步骤:
S1.1:根据左、右两幅图像的颜色信息计算待匹配像素点在视差为d时的GAD变换代价;
S1.2:分别对左、右两幅图像进行灰度化处理,获取各像素的灰度值,以待匹配的像素点为中心选取窗口,并根据灰度值计算所述待匹配像素点在视差为d时的Census变换匹配代价和改进Census变换匹配代价,加权融合生成Double Census变换匹配代价;
S1.3:将所述待匹配像素点的GAD变换代价和Double Census变换匹配代价进行融合,获取所述待匹配像素点在视差为d时的GAD-Double Census变换匹配代价,并作为初始匹配代价。
优选地,所述左、右两幅图像的颜色信息为HSV颜色空间的三通道信息。
优选地,所述改进Census变换选取的窗口为:对左、右两幅图像分别进行3×3窗口的均值滤波,获取滤波后的左、右两幅图像;在滤波后的左图像中以待匹配点p(i,j)为中心选定一个n×n方形窗口,n为奇数;用窗口内除中心像素点p之外其余各像素点的灰度值的平均值替代窗口中心像素p的灰度值,获取新的窗口。
优选地,以畸变因数r为自变量,采用径向基函数计算出的权重值对所述Census变换匹配代价与改进Census变换匹配代价进行加权融合,生成DoubleCensus变换代价。
优选地,所述畸变因数r的表达式为:
G(n×n)=A(n×n)-B(n×n)
Figure BDA0003236529160000041
式中:A(n×n)为左图像中以p(i,j)像素点为中心的窗口内各像素灰度值矩阵,B(n×n)为右图像中以q(i-d,j)像素点为中心的窗口内各像素灰度值矩阵,G(n×n)为A(n×n)与B(n×n)差的矩阵,g(k,l)为矩阵G中的元素,
Figure BDA0003236529160000042
为矩阵G的中心元素,r(i,j,d)为左图中p(i,j)像素点在视差为d时畸变因数。
优选地,所述Double census变换代价的计算公式如下所示:
Figure BDA0003236529160000043
w2(i,j,d)=1-w1(i,j,d)
CdCensus(i,j,d)=w1(i,j,d)×CCensus(i,j,d)+w2(i,j,d)×CiCensus(i,j,d)
式中:w1(i,j,d)为左图中p(i,j)像素点在视差为d时的Census变换代价的权重值,w2(i,j,d)为左图中p(i,j)像素点在视差为d时的改进Census变换代价的权重值,r(i,j,d)为左图中p(i,j)像素点在视差为d时的畸变因数,δ为径向基函数的调节参数,CCensus(i,j,d)为左图中p(i,j)像素点在视差为d时的Census变换代价,CiCensus为左图中p(i,j)像素点在视差为d时的改进Census变换代价,CdCensus(i,j,d)为左图中p(i,j)像素点在视差为d时的Double Census变换代价。
优选地,所述S3采用权值跃变双边滤波器对所述左、右图像的初始代价空间的代价进行聚合的公式为:
Figure BDA0003236529160000044
Figure BDA0003236529160000045
式中:(i,j)为代价聚合窗口的中心像素点p点的坐标,(k,l)为代价聚合窗口内其余像素点坐标,同时i,j,k,l代表对应点代价在代价空间的第一、二维坐标,I(i,j)和I(k,l)代表图像点(i,j)和点(k,l)的灰度值,ωs为两像素点之间的空间邻近度的权值,ωr为两像素点之间的灰度值相似度的权值,σs为空间邻近度权值的调整参数,σr为像素值相似度权值的调整参数,T为两点间灰度值差的阈值,ω(i,j,k,l)为点(k,l)的代价在以(i,j)为中心的窗口内代价聚合计算时的权值,d为视差,Ch(i,j,d)为(i,j)点在d视差平面内聚合后的代价,S(i,j)为以(i,j)为中心的代价聚合窗口范围,C(k,l,d)为点(k,l)在d视差平面内的聚合前的初始代价。
优选地,采用赢家通吃算法计算左、右两幅图像的像素点的初始视差值。
优选地,所述S5包括以下步骤:
S5.1:利用左右一致性检测判断初始视差图的误匹配点,并对误匹配点进行修正填充,获取修正填充后的视差值和视差图;
S5.2:对修正填充后的视差图进行加权中值滤波,获得高精度的视差图。
与现有技术相比,本发明具有以下优点:
1)AD代价的计算结果更加准确可靠。本发明在HSV颜色空间下计算AD代价(即GAD变换代价),相较于传统的依据图像的RGB颜色信息进行的AD代价计算,本发明在HSV颜色空间中能够高效的获取图片反应的最真实的信息,因而基于HSV颜色空间下AD的计算结果(即GAD变换代价)更加可靠准确。
2)Double Census代价比Census代价的抗噪音性能更强。Double Census变换匹配代价是Census变换代价和改进Census变换代价加权融合得到的,融合权重值是用以畸变因数r为自变量的径向基函数计算出来的。而其中的改进Census代价可以避免中心像素值畸变对生成的Census比特串的影响。本发明采用先整幅图均值滤波然后再用窗口内除中心像素点p之外其余各像素点的灰度值的平均值替代窗口中心像素p的灰度值的方法,避免中心像素值畸变对生成的Census比特串的影响。其中的畸变因数r可以反映像素值是否发生畸变及畸变的程度,并根据畸变因数计算Double Census代价中Census变换代价和改进Census变换代价的权重值。因此,Double Census代价可以抑制中心像素点的灰度值畸变对匹配代价的影响,克服了在左右图像亮度不一致和中心像素的灰度值畸变的恶劣情况下计算的匹配代价不可靠不精确的问题。
3)代价聚合更加合理和准确。本发明采用权值跃变双边滤波对代价空间的代价进行聚合,可以彻底阻断深度不连续区域的像素的代价参与聚合,同时深度连续区域的像素的代价可以按空间临近度和颜色相似度产生的权重进行聚合,从而视差图的精度,特别是在视差不连续的图像边缘部分的精度得到很大提高,且不需生成十字臂及十字臂支撑的窗口,加快聚合速度。
附图说明
图1为本实施例一种用于双目图像的立体匹配方法的流程示意图;
图2为RGB颜色分量和HSV颜色分量的对比图;
图3为本实施例中基于Census变换比特串生成的示意图;
图4为本实施例中基于Census变换代价的计算结果的示意图;
图5为本实施例中基于改进Census变换比特串生成的示意图;
图6为本实施例中采用的径向基函数在不同的调节参数δ时的图像;
图7为本实施例中左图中待匹配点与右图中不同视差下同名点的示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述实施例。
参考图1所示,本实施例提供一种用于双目图像的立体匹配方法,包括以下步骤:
S1:通过双目立体视觉传感器获取待匹配的左、右两幅图像,并分别在左、右两幅图像中选取待匹配像素点进行在视差为d时的GAD变换、基于Census变换和改进Census变换的加权融合变换(以下简称:Double census变换)和所述GAD变换与Double Census变换的加权融合变换(以下简称GAD-Double Census变换),获取所述待匹配像素点在视差为d时的初始匹配代价;
S1.1:通过双目立体视觉传感器获取待匹配的左、右两幅图像,分别将左、右两幅图像的RGB颜色空间转换为HSV颜色空间,并根据HSV颜色空间的三通道信息进行AD变换(以下简称:GAD变换),计算待匹配像素点在视差为d时的GAD变换代价,计算公式如下所示:
Figure BDA0003236529160000061
式中:(i,j)为左图中待匹配点p(i,j)的坐标,d为视差,(i-d,j)为p(i,j)在视差为d时右图中的同名点(又称匹配点)q(i-d,j)的坐标,I为像素值,m为通道值,
Figure BDA0003236529160000062
为左图中像素点p(i,j)在m通道下的像素值,
Figure BDA0003236529160000063
为右图中的同名点q(i-d,j)在m通道下的像素值,CGAD(i,j,d)为左图中p(i,j)像素点在视差为d时的GAD变换代价。
由于在图像中的同一场景中,RGB的颜色分量的变化大体相同,因此,RGB颜色空间对颜色的描述具有局限性,不能够有效的提取场景信息。图2为RGB颜色分量和HSV颜色分量的对比图,由图2可知,R通道、G通道和B通道颜色的变化程度一致性很高,因此在代价计算时依据RGB颜色信息相当于图片信息的重复计算。而HSV颜色模型从图片的色调、饱和度和亮度的三个角度来获取图像的信息,提高图像的分辨水平,因此在HSV颜色空间中能够高效的获取出图片反应的最真实的信息。因此,依据图片的HSV颜色信息计算出的GAD代价更加准确可靠。
S1.2:分别对左、右两幅图像进行灰度化处理,获取各像素的灰度值,以待匹配的像素点为中心选取窗口,并根据灰度值计算所述待匹配像素点在视差为d时的DoubleCensus变换匹配代价;
S1.2.1:根据左、右两幅图像的灰度值求解Census变换的匹配代价;
以左图像待匹配点p(i,j)为中心选定一个n×n(n为奇数)方形窗口,选取方形窗口的中心像素p(i,j)作为参考像素,将方形窗口中每个像素的灰度值I(k,l)顺次与参考像素的灰度值I(i,j)进行比较,灰度值小于或等于参考值的像素标记为1,大于参考值的像素标记为0,最后再将它们按位按顺序连接,得到变换后的由0和1组成的二进制数字串即Census变换的比特串。转换公式为:
Figure BDA0003236529160000071
Figure BDA0003236529160000072
其中,ξ为比较函数,(i,j)为窗口中心像素点p(i,j)的坐标,(k,l)为窗口内与p(i,j)相邻的像素点e(k,l)的坐标,I(i,j),I(k,l)分别为像素点p、e的灰度值,GT(i,j)为p(i,j)像素点的Census变换比特串,
Figure BDA0003236529160000073
为位连接运算符号,Np为以p(i,j)为中心的窗口变换域。
采用上述方法生成p(i,j)点在右图像中视差为d时的对应点q(i-d,j)的Census变换比特串,并分别对左、右两幅图像中对应点p和q点的Census变换比特串进行异或运算,如下式所示,求得两比特串之间的汉明距离CCensus,即是左图中p(i,j)像素点在视差d时的Census变换所计算的匹配代价。
CCensus(i,j,d)=hamming(CTL(i,j),CTR(i-d,j))
式中:CCensus(i,j,d)为左图中p(i,j)像素点在视差d时的Census变换代价,CTL(i,j)、CTR(i-d,j)分别为左图像中p(i,j)点和右图中对应的q(i-d,j)点的Census变换比特串。
S1.2.2:根据所述左、右两幅图像的灰度值求解改进Census变换的匹配代价;
对左、右两幅图像分别进行3×3窗口的均值滤波,获取滤波后的左、右两幅图像。在滤波后的左图像中以待匹配点p(i,j)为中心选定一个n×n(n为奇数)方形窗口,窗口的大小和上述Census变换所取窗口相同,用窗口内除中心像素点p之外其余各像素点的灰度值的平均值替代窗口中心像素p的灰度值。在这个新的窗口中,按照上述Census变换中比特串的生成方法,生成左图中像素点p(i,j)的二进制字符串,称之为像素点p(i,j)的改进Census比特串。同样方法生成p(i,j)点在滤波后的右图像中视差为d时的对应点q(i-d,j)的改进Census变换比特串,两变换比特串进行异或运算求得两比特串之间的汉明距离,即为改进Census变换代价CiCensus,公式为:
Cicensus(i,j,d)=hamming(CiTL(i,j),CiTR(i-d,j))
式中:CiCensus(i,j,d)为左图中p(i,j)像素点在视差d时的改进Census变换代价,CiTL(i,j)、CiTR(i-d,j)分别为左图像中p(i,j)点和右图中对应点q(i-d,j)点的改进Census变换比特串。
S1.2.3:根据灰度值计算每个像素点的畸变因数r,利用径向基函数计算出的权重值对所述Census变换代价与基于改进Census变换代价进行加权融合,获取Double Census变换匹配代价。
由于Census变换对窗口的中心像素十分敏感,尤其是在复杂环境条件下,中心像素受到光照等不良因素的影响,造成其像素值畸变,有可能导致Census变换得到的二进制字符串发生很大的改变,从而极大地增加了视差图中对应像素点发生错误匹配的概率,改进的Census变换能克服这一问题,从而提高算法的匹配精度;故将Census变换代价与改进Census变换代价进行加权融合,获取Double Census变换匹配代价。
在左图中同样选定大小为n×n的方形窗口,依据极线约束原则和视差范围,在右图中依次选取同样大小的窗口,形成窗口对。左、右图的窗口内各像素的灰度值形成两个矩阵,左图矩阵减去右图矩阵得到灰度差矩阵,再以灰度差矩阵的中心点元素减去其余元素的平均值得到差值r,公式如下:
G(n×n)=A(n×n)-B(n×n)
Figure BDA0003236529160000091
式中:A(n×n)为左图像中以像素点p(i,j)为中心的窗口内各像素灰度值矩阵,B(n×n)为右图像中以对应像素点q(i-d,j)为中心的窗口内各像素灰度值矩阵,G(n×n)为A(n×n)与B(n×n)差的矩阵,g(k,l)为矩阵G中的元素,
Figure BDA0003236529160000092
为矩阵G的中心元素,r(i,j,d)为左图中p(i,j)像素点在视差为d时畸变因数。
以畸变因数r为自变量,采用径向基函数计算的函数值w1作为Census变换代价的权重值,w2=1-w1作为改进Census变换代价的权重值,对Census变换的求解代价与改进Census变换的求解代价进行加权融合,公式为:
Figure BDA0003236529160000093
w2(i,j,d)=1-w1(i,j,d)
CdCensus(i,j,d)=w1(i,j,d)×CCensus(i,j,d)+w2(i,j,d)×CiCensus(i,j,d)
式中:w1(i,j,d)为左图中p(i,j)像素点在视差为d时的Census变换代价的权重值,w2(i,j,d)为左图中p(i,j)像素点在视差为d时的改进Census变换代价的权重值,r(i,j,d)为左图中p(i,j)像素点在视差为d时的畸变因数,δ为径向基函数的调节参数,CCensus(i,j,d)为左图中p(i,j)像素点在视差为d时的Census变换代价,CiCensus(i,j,d)为左图中p(i,j)像素点在视差为d时的改进Census变换代价,CdCensus(i,j,d)为左图中p(i,j)像素点在视差为d时的Double Census变换代价。
基于Census变换匹配代价的计算如图3和图4所示,由图3和图4可知,Census变换对窗口的中心像素高度敏感,特别是在复杂环境条件下,只要中心像素受到光照等不良因素的影响,造成其像素值畸变,都会导致Census变换比特串和Census变换匹配代价发生很大的改变。而参考图5可知,改进的Census变换通过二次平均运算,用窗口内像素值的均值替代窗口中心像素值,可以抑制中心像素值畸变的影响。参考图6,从改进Census变换匹配代价和传统Census变换匹配代价融合权值的计算过程可以看出,当左右图中的正确匹配点受噪声影响发生畸变时,计算出来的畸变因子r的绝对值很大,对应的径向基函数值接近于0。这时,Double Census变换匹配代价取决于改进Census变换匹配代价,而改进Census变换匹配代价计算可以抑制中心像素值畸变对代价计算的影响,从而隔断中心像素点的灰度值畸变对匹配代价的影响。相反,当左右图中的正确匹配点没有灰度值畸变时,计算出来的畸变因子r的绝对值小,对应的径向基函数值接近于1,这时Double Census变换匹配代价取决于Census变换的代价,发挥出Census变换的优点。因此,不论是在左右图像亮度不一致还是在中心像素的灰度值畸变的恶劣情况下,Double Census变换都能计算出可靠精确的匹配代价。
S1.3:将所述待匹配像素点p(i,j)在视差为d时的GAD变换代价和Double Census变换匹配代价进行融合,获取所述待匹配像素点在视差为d时的GAD-Double Census变换匹配代价,并作为初始匹配代价,计算公式具体为:
C(i,j,d)=ρ(CdCensus(i,j,d),λdCensus)+ρ(CGAD(i,j,d),λGAD)
式中:C(i,j,d)为左图中p(i,j)像素点在视差d时的GAD-Double Census变换代价,Cdcensus(i,j,d)为左图中p(i,j)像素点在视差d时的Double Census变换代价,CGAD(i,j,d)为左图中p(i,j)像素点在视差d时的GAD变换代价,λGAD和λdCensus分别为GAD变换代价和Double Census变换代价的权重值。
由于GAD变换代价和Double Census变换代价的量纲不一致,不可以直接加权求和。因此,先用函数ρ(C,λ)将GAD变换代价和Double Census变换代价做归一化处理,使每种变换代价转换为范围在[0,1]的数值,公式如下:
ρ(C,λ)=1-exp(-C/λ)
式中:C为待转换的代价,λ为代价C的权重值,ρ(C,λ)为归一化后的代价。
S2:参考图7所示,根据极线约束原则和视差范围分别获取左、右图像的所有像素点在视差范围内所有视差下的初始匹配代价,形成左、右图像的初始代价空间;
对于左图中所有的任一待匹配点,根据极线约束原则和视差范围,遍历右图像中视差范围内的所有点,获取各待匹配点所有视差下的匹配代价,从而获取左图像的初始代价空间(注意:对于左图中靠左侧部分,在右图中按视差范围寻找匹配点时,有超出右图左边界的情况,即i-d<0,此时的代价C(i,j,d)直接赋值为255)。
对于右图中所有的任一待匹配点,根据极线约束原则和视差范围,遍历左图像中视差范围内的所有点,获取各待匹配点所有视差下的匹配代价,从而获取右图像的初始代价空间(按视差范围搜寻出界时,处理方法和上述相同)。
所述左、右两幅图像的初始代价空间为长宽和左、右图像的长宽相同,高度为最大视差,内容为像素点在该视差下的初始代价的三维空间。
为使代价值能够准确的反映像素之间的相关性,建立相邻像素之间的联系,故对上述代价空间进行代价聚合,即每个像素在某个视差下的新代价值都会根据其相邻像素在同一视差值下的代价值重新计算,获取代价聚合后的代价空间。
S3:采用权值跃变双边滤波器对所述左、右图像的初始代价空间的初始匹配代价进行聚合,获取聚合后的代价空间;
权值跃变双边滤波对双边滤波中像素值相似度的权值ωr的定义进行更改,对窗口内邻近像素值的差值设定阈值T,当像素值的差值小于此阈值T时,ωr按现有的双边滤波的定义,使得属于同一区域上的像素点的代价参与滤波运算,使得深度连续的同一区域像素点的代价得到平滑效果,当像素值的差值大于此阈值T时,ωr跃变为0,使得不属于同一区域上的像素点的代价不再参与代价的加权求平均运算,滤波(聚合)后的代价平面图像的区域间的边缘得以完整保留,权值跃变双边滤波公式为:
Figure BDA0003236529160000111
Figure BDA0003236529160000112
式中:(i,j)为代价聚合窗口的中心像素点p点的坐标,(k,l)为代价聚合窗口内其余像素点坐标,同时i,j,k,l代表对应点代价在代价空间的第一、二维坐标,I(i,j)和I(k,l)代表图像点(i,j)和点(k,l)的灰度值,ωs为两像素点之间的空间邻近度的权值,ωr为两像素点之间的灰度值相似度的权值,σs为空间邻近度权值的调整参数,σr为像素值相似度权值的调整参数,T为两点间灰度值差的阈值,ω(i,j,k,l)为点(k,l)的代价在以(i,j)为中心的窗口内代价聚合计算时的权值,d为视差,C(i,j,d)为(i,j)点d视差平面内聚合后的代价,S(i,j)为以(i,j)为中心的代价聚合窗口范围,C(k,l,d)为点(k,l)在d视差平面内的聚合前的初始代价。
代价聚合的目的是让代价值能够准确的反映像素之间的相关性,建立相邻像素之间的联系。即对深度连续的区域进行平滑同时保留深度不连续区域的边缘信息。现有的双边滤波通过颜色相似度权重ωr使处于深度不连续区域的像素的代价在聚合时降低加权的比重,但彼此之间的影响仍然存在,深度不连续区域的像素的代价参与聚合违背了代价聚合的原理,降低最终视差图的精度。本发明对ωr的定义设定阈值T,对于处于深度不连续区域的像素,其颜色的差值必定大于阈值T,这时定义ωr=0,彻底阻断深度不连续区域的像素的代价参与聚合。而对于深度连续区域的像素的代价仍然可以按空间临近度和颜色相似度产生的权重进行聚合,更加符合代价聚合的理论和初衷,实际的聚合效果也验证了该方法的合理性和先进性。计算的视差图,特别是在视差不连续的图像边缘部分的精度得到很大提高。
S4:在聚合后的代价空间中,采用赢家通吃(WTA)算法计算左、右两幅图像的每个像素点在最小代价时所对应的视差值,即初始视差值,并根据初始视差值获取左、右两幅图像的初始视差图;
Figure BDA0003236529160000121
式中:dp为p(i,j)像素点在聚合后的代价中最小匹配代价所对应的视差值即初始视差值,dmax为视差搜索区间的最大视差值,argmin代表获取最小Ch的第三维坐标的运算,Ch(i,j,d)为p(i,j)像素点在视差为d时的聚合后的匹配代价值。
计算图像中所有像素点的初始视差值,这些初始视差值所组成的矩阵即为初始视差图。
S5:对所述初始视差图进行优化,获取高精度的视差图。
S5.1:利用左右一致性检测判断初始视差图的误匹配点,并对误匹配点进行修正填充,获取修正填充后的视差值和视差图。
左右一致性检测是基于视差的唯一性约束,即每个像素最多只存在一个正确视差。对于左图像中某一个像素点p(i,j),其视差值为dp,该像素点p(i,j)在右图中的理论对应点为p(i-dp,j),其视差记作dR,若|dp-dR|>threshold(threshold为阈值,一般为1个像素),则判定p(i,j)为误匹配点,需要对点p的视差值重新赋值。具体赋值方法:对于一个误匹配点p,分别水平往左和往右找到第一个正确匹配点,记作pl、pr。点p的视差值赋成pl和pr视差值中较小的那一个值,公式为:
Figure BDA0003236529160000122
式中:dpcorrect为p点修正填充后的视差值。
S5.2:对修正填充后的视差图进行加权中值滤波,获得高精度的视差图。
根据本实施例提出的一种用于双目图像的立体匹配方法,在学术界公认的第3代Middlebury双目立体匹配评估平台上对Middlebury网站所提供的15组图像进行相关实验来验证算法的可行性及性能测试。
一种用于双目图像的立体匹配方法通过Matlab R2018a软件平台来具体实现,硬件平台采用Windows10操作系统(Intel Core i7-10751H CPU,2.60GHz,16GB内存)。实验涉及的参数包括:n=9,δ=1,λdcensus=30,λGAD=10,ωs=7,ωr=0.2,T=15。
实验1初始匹配代价算法的验证
本实施例对本发明提出的初始匹配代价算法GAD-Double Census算法和传统的初始匹配代价算法AD-Census算法,分别计算初始匹配代价,并采用相同的方法获取视差图,获取的视差图与第3代Middlebury双目立体匹配评估平台上提供的标准视差图比较,按平台提供的评估项目,分为非遮挡像素点的视觉平均误差和全部像素点的视觉平均误差两组评估数据,分别如表1和表2所示。由表1和表2可知,本实施例提出的初始匹配代价计算方法(GAD-Double Census)优于传统算法(GAD-Census)。
表1不同初始代价计算方法非遮挡像素点的视差平均误差比较(%)
Figure BDA0003236529160000131
表2不同初始代价计算方法全部像素点的视差平均误差比较(%)
Figure BDA0003236529160000132
实验2权值跃变双边滤波用于代价聚合的算法的验证
本实施例在代价聚合步骤分别采用双边滤波和权值跃变的双边滤波进行对比实验,其余步骤算法一致。在第3代Middlebury双目立体匹配评估平台上的评估结果如表3和表4所示,由表3和表4可以看出本实施例提出的将权值跃变双边滤波用于代价聚合可以得到精度更高的视差图。
表3不同代价聚合方法非遮挡像素点的视差平均误差比较(%)
Figure BDA0003236529160000141
表4不同代价聚合方法全部像素点的视差平均误差比较(%)
Figure BDA0003236529160000142
实验3本发明算法的整体流程的验证
本实施例验证本发明提出的一种用于双目图像的立体匹配算法与传统AD-Census算法、LS-ELSE算法、SGBM1算法、ICSG算法和r200high算法做对比实验,在第3代Middlebury双目立体匹配评估平台上的评估结果见表5和表6,由表5和表6可知,本实施例提出的一种用于双目图像的立体匹配方法在所有图像集上的平均匹配效果优于传统算法和相关的立体匹配算法,对匹配的效果有一定的提升,具有良好的表现。
表5不同方法非遮挡像素点的视差平均误差比较(%)
Figure BDA0003236529160000143
表6不同方法全部像素点的视差平均误差比较(%)
Figure BDA0003236529160000144
Figure BDA0003236529160000151
上述的对实施例的描述是为便于该技术领域的普通技术人员能理解和使用发明。熟悉本领域技术的人员显然可以容易地对这些实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,不脱离本发明范畴所做出的改进和修改都应该在本发明的保护范围之内。

Claims (10)

1.一种用于双目图像的立体匹配方法,其特征在于,包括以下步骤:
S1:通过双目立体视觉传感器获取待匹配的左、右两幅图像,并分别在左、右两幅图像中选取待匹配像素点,对待匹配像素点依次进行在视差为d时的GAD变换、Double Census变换和GAD-Double Census变换,获取所述待匹配像素点在视差为d时的初始匹配代价;
S2:根据极线约束原则和视差范围,分别获取左、右图像的所有像素点在视差范围内所有视差下的初始匹配代价,形成左、右图像的初始代价空间;
S3:采用权值跃变双边滤波器对左、右图像的初始代价空间的初始匹配代价进行聚合,获取聚合后的代价空间;
S4:在聚合后的代价空间中,计算左、右两幅图像的每个像素点在最小代价下时所对应的视差值,即初始视差值,并根据初始视差值获取左、右两幅图像的初始视差图;
S5:对所述初始视差图进行优化,获取高精度的视差图。
2.根据权利要求1所述的一种用于双目图像的立体匹配方法,其特征在于,所述S1包括以下步骤:
S1.1:根据左、右两幅图像的颜色信息计算待匹配像素点在视差为d时的GAD变换代价;
S1.2:分别对左、右两幅图像进行灰度化处理,获取各像素的灰度值,以待匹配的像素点为中心选取窗口,并根据灰度值计算所述待匹配像素点在视差为d时的Census变换匹配代价和改进Census变换匹配代价,加权融合生成Double Census变换匹配代价;
S1.3:将所述待匹配像素点的GAD变换代价和Double Census变换匹配代价进行融合,获取所述待匹配像素点在视差为d时的GAD-Double Census变换匹配代价,并作为初始匹配代价。
3.根据权利要求2所述的一种用于双目图像的立体匹配方法,其特征在于,所述左、右两幅图像的颜色信息为HSV颜色空间的三通道信息。
4.根据权利要求2所述的一种用于双目图像的立体匹配方法,其特征在于,所述改进Census变换选取的窗口为:对左、右两幅图像分别进行3×3窗口的均值滤波,获取滤波后的左、右两幅图像;在滤波后的左图像中以待匹配点p(i,j)为中心选定一个n×n方形窗口,n为奇数;用窗口内除中心像素点p之外其余各像素点的灰度值的平均值替代窗口中心像素p的灰度值,获取新的窗口。
5.根据权利要求2所述的一种用于双目图像的立体匹配方法,其特征在于,以畸变因数r为自变量,采用径向基函数计算出的权重值对所述Census变换匹配代价与改进Census变换匹配代价进行加权融合,生成Double Census变换代价。
6.根据权利要求5所述的一种用于双目图像的立体匹配方法,其特征在于,所述畸变因数r的表达式为:
G(n×n)=A(n×n)-B(n×n)
Figure FDA0003236529150000021
式中:A(n×n)为左图像中以p(i,j)像素点为中心的窗口内各像素灰度值矩阵,B(n×n)为右图像中以q(i-d,j)像素点为中心的窗口内各像素灰度值矩阵,C(n×n)为A(n×n)与B(n×n)差的矩阵,g(k,l)为矩阵G中的元素,
Figure FDA0003236529150000022
为矩阵G的中心元素,r(i,j,d)为左图中p(i,j)像素点在视差为d时畸变因数。
7.根据权利要求5所述的一种用于双目图像的立体匹配方法,其特征在于,所述Doublecensus变换代价的计算公式如下所示:
Figure FDA0003236529150000023
w2(i,j,d)=1-w1(i,j,d)
CdCensus(i,j,d)=w1(i,j,d)×CCensus(i,j,d)+w2(i,j,d)×CiCensus(i,j,d)
式中:w1(i,j,d)为左图中p(i,j)像素点在视差为d时的Census变换代价的权重值,w2(i,j,d)为左图中p(i,j)像素点在视差为d时的改进Census变换代价的权重值,r(i,j,d)为左图中p(i,j)像素点在视差为d时的畸变因数,δ为径向基函数的调节参数,CCensus(i,j,d)为左图中p(i,j)像素点在视差为d时的Census变换代价,CiCensus(i,j,d)为左图中p(i,j)像素点在视差为d时的改进Census变换代价,CdCensus(i,j,d)为左图中p(i,j)像素点在视差为d时的Double Census变换代价。
8.根据权利要求1所述的一种用于双目图像的立体匹配方法,其特征在于,所述S3采用权值跃变双边滤波器对所述左、右图像的初始代价空间的代价进行聚合的公式为:
Figure FDA0003236529150000031
Figure FDA0003236529150000032
Figure FDA0003236529150000033
式中:(i,j)为代价聚合窗口的中心像素点p点的坐标,(k,l)为代价聚合窗口内其余像素点坐标,同时i,j,k,l代表对应点代价在代价空间的第一、二维坐标,I(i,j)和I(k,l)代表图像点(i,j)和点(k,l)的灰度值,ωs为两像素点之间的空间邻近度的权值,ωr为两像素点之间的灰度值相似度的权值,σs为空间邻近度权值的调整参数,σr为像素值相似度权值的调整参数,T为两点间灰度值差的阈值,ω(i,j,k,l)为点(k,l)的代价在以(i,j)为中心的窗口内代价聚合计算时的权值,d为视差,Ch(i,j,d)为(i,j)点在d视差平面内聚合后的代价,S(i,j)为以(i,j)为中心的代价聚合窗口范围,C(k,l,d)为点(k,l)在d视差平面内的聚合前的初始代价。
9.根据权利要求1所述的一种用于双目图像的立体匹配方法,其特征在于,采用赢家通吃算法计算左、右两幅图像的像素点的初始视差值。
10.根据权利要求1所述的一种用于双目图像的立体匹配方法,其特征在于,所述S5包括以下步骤:
S5.1:利用左右一致性检测判断初始视差图的误匹配点,并对误匹配点进行修正填充,获取修正填充后的视差值和视差图;
S5.2:对修正填充后的视差图进行加权中值滤波,获得高精度的视差图。
CN202111003779.9A 2021-08-30 2021-08-30 一种用于双目图像的立体匹配方法 Active CN113763269B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111003779.9A CN113763269B (zh) 2021-08-30 2021-08-30 一种用于双目图像的立体匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111003779.9A CN113763269B (zh) 2021-08-30 2021-08-30 一种用于双目图像的立体匹配方法

Publications (2)

Publication Number Publication Date
CN113763269A true CN113763269A (zh) 2021-12-07
CN113763269B CN113763269B (zh) 2023-11-24

Family

ID=78791756

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111003779.9A Active CN113763269B (zh) 2021-08-30 2021-08-30 一种用于双目图像的立体匹配方法

Country Status (1)

Country Link
CN (1) CN113763269B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114187208A (zh) * 2021-12-17 2022-03-15 福州大学 基于融合代价和自适应惩罚项系数的半全局立体匹配方法
CN116071415A (zh) * 2023-02-08 2023-05-05 淮阴工学院 一种基于改进Census算法的立体匹配方法
CN116229123A (zh) * 2023-02-21 2023-06-06 深圳市爱培科技术股份有限公司 基于多通道分组互相关代价卷的双目立体匹配方法及装置
CN116258759A (zh) * 2023-05-15 2023-06-13 北京爱芯科技有限公司 一种立体匹配方法、装置和设备
WO2024032233A1 (zh) * 2023-04-27 2024-02-15 华北理工大学 基于双目视觉的立体摄影测量方法
CN116229123B (zh) * 2023-02-21 2024-04-30 深圳市爱培科技术股份有限公司 基于多通道分组互相关代价卷的双目立体匹配方法及装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103679760A (zh) * 2013-12-05 2014-03-26 河海大学 基于Normalized cut的彩色图像分割方法
CN103971366A (zh) * 2014-04-18 2014-08-06 天津大学 一种基于双权重聚合的立体匹配方法
US20150332467A1 (en) * 2013-01-14 2015-11-19 Conti Temic Microelectronic Gmbh Method for Determining Depth Maps from Stereo Images with Improved Depth Resolution in a Range
KR101622344B1 (ko) * 2014-12-16 2016-05-19 경북대학교 산학협력단 적응적 영역 가중치가 적용된 센서스 변환 기반 스테레오 정합을 통한 시차 계산 방법 및 그 시스템
CN207395602U (zh) * 2017-08-30 2018-05-22 常州奥润特冶金精密机械有限公司 一种芯轴尺寸检验设备
CN108460792A (zh) * 2016-12-12 2018-08-28 南京理工大学 一种基于图像分割的高效聚焦立体匹配方法
JP2019120590A (ja) * 2018-01-05 2019-07-22 パナソニックIpマネジメント株式会社 視差値算出装置、視差値算出方法及びプログラム
CN110211168A (zh) * 2019-06-04 2019-09-06 长春理工大学 一种基于改进匹配代价的分段树视差图获取方法
CN110473217A (zh) * 2019-07-25 2019-11-19 沈阳工业大学 一种基于Census变换的双目立体匹配方法
CN111325778A (zh) * 2020-01-22 2020-06-23 天津大学 基于窗口互相关信息的改进Census立体匹配算法
CN111681275A (zh) * 2020-06-16 2020-09-18 南京莱斯电子设备有限公司 一种双特征融合的半全局立体匹配方法
CN112784874A (zh) * 2020-12-28 2021-05-11 深兰人工智能芯片研究院(江苏)有限公司 双目视觉立体匹配方法、装置、电子设备及存储介质

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150332467A1 (en) * 2013-01-14 2015-11-19 Conti Temic Microelectronic Gmbh Method for Determining Depth Maps from Stereo Images with Improved Depth Resolution in a Range
CN103679760A (zh) * 2013-12-05 2014-03-26 河海大学 基于Normalized cut的彩色图像分割方法
CN103971366A (zh) * 2014-04-18 2014-08-06 天津大学 一种基于双权重聚合的立体匹配方法
KR101622344B1 (ko) * 2014-12-16 2016-05-19 경북대학교 산학협력단 적응적 영역 가중치가 적용된 센서스 변환 기반 스테레오 정합을 통한 시차 계산 방법 및 그 시스템
CN108460792A (zh) * 2016-12-12 2018-08-28 南京理工大学 一种基于图像分割的高效聚焦立体匹配方法
CN207395602U (zh) * 2017-08-30 2018-05-22 常州奥润特冶金精密机械有限公司 一种芯轴尺寸检验设备
JP2019120590A (ja) * 2018-01-05 2019-07-22 パナソニックIpマネジメント株式会社 視差値算出装置、視差値算出方法及びプログラム
CN110211168A (zh) * 2019-06-04 2019-09-06 长春理工大学 一种基于改进匹配代价的分段树视差图获取方法
CN110473217A (zh) * 2019-07-25 2019-11-19 沈阳工业大学 一种基于Census变换的双目立体匹配方法
CN111325778A (zh) * 2020-01-22 2020-06-23 天津大学 基于窗口互相关信息的改进Census立体匹配算法
CN111681275A (zh) * 2020-06-16 2020-09-18 南京莱斯电子设备有限公司 一种双特征融合的半全局立体匹配方法
CN112784874A (zh) * 2020-12-28 2021-05-11 深兰人工智能芯片研究院(江苏)有限公司 双目视觉立体匹配方法、装置、电子设备及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHEN LV等: "Stereo Matching Algorithm Based on HSV Color Space and Improved Census Transform", 《MATHEMATICAL PROBLEMS IN ENGINEERING》, vol. 2021, pages 1 - 17 *
珊大爷: "基于双权重聚合的立体匹配算法", pages 1 - 5, Retrieved from the Internet <URL:https://blog.csdn.net/shan54321/article/details/84562796> *
赵晨园 等: "双目视觉的立体匹配算法研究进展", 《计算机科学与探索》, vol. 14, no. 7, pages 1104 - 1113 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114187208A (zh) * 2021-12-17 2022-03-15 福州大学 基于融合代价和自适应惩罚项系数的半全局立体匹配方法
CN116071415A (zh) * 2023-02-08 2023-05-05 淮阴工学院 一种基于改进Census算法的立体匹配方法
CN116071415B (zh) * 2023-02-08 2023-12-01 淮阴工学院 一种基于改进Census算法的立体匹配方法
CN116229123A (zh) * 2023-02-21 2023-06-06 深圳市爱培科技术股份有限公司 基于多通道分组互相关代价卷的双目立体匹配方法及装置
CN116229123B (zh) * 2023-02-21 2024-04-30 深圳市爱培科技术股份有限公司 基于多通道分组互相关代价卷的双目立体匹配方法及装置
WO2024032233A1 (zh) * 2023-04-27 2024-02-15 华北理工大学 基于双目视觉的立体摄影测量方法
CN116258759A (zh) * 2023-05-15 2023-06-13 北京爱芯科技有限公司 一种立体匹配方法、装置和设备
CN116258759B (zh) * 2023-05-15 2023-09-22 北京爱芯科技有限公司 一种立体匹配方法、装置和设备

Also Published As

Publication number Publication date
CN113763269B (zh) 2023-11-24

Similar Documents

Publication Publication Date Title
CN110310320B (zh) 一种双目视觉匹配代价聚合优化方法
Zhan et al. Accurate image-guided stereo matching with efficient matching cost and disparity refinement
CN113763269B (zh) 一种用于双目图像的立体匹配方法
CN107220997B (zh) 一种立体匹配方法及系统
CN104867135B (zh) 一种基于指导图像引导的高精度立体匹配方法
CN111833393A (zh) 一种基于边缘信息的双目立体匹配方法
CN107578430B (zh) 一种基于自适应权值和局部熵的立体匹配方法
Lee et al. Local disparity estimation with three-moded cross census and advanced support weight
US20160048970A1 (en) Multi-resolution depth estimation using modified census transform for advanced driver assistance systems
Ben-Ari et al. Stereo matching with Mumford-Shah regularization and occlusion handling
CN103996201A (zh) 一种基于改进梯度和自适应窗口的立体匹配方法
Hua et al. Extended guided filtering for depth map upsampling
WO2020119467A1 (zh) 高精度稠密深度图像的生成方法和装置
Dinh et al. Robust adaptive normalized cross-correlation for stereo matching cost computation
Zhu et al. Stereo matching algorithm with guided filter and modified dynamic programming
CN114332125A (zh) 点云重建方法、装置、电子设备和存储介质
Kong et al. Local stereo matching using adaptive cross-region-based guided image filtering with orthogonal weights
CN114862926A (zh) 融合ad代价和多模局部特征代价的立体匹配方法及系统
CN111415305A (zh) 恢复三维场景的方法、计算机可读存储介质及无人机
CN111369435B (zh) 基于自适应稳定模型的彩色图像深度上采样方法及系统
Lin et al. Matching cost filtering for dense stereo correspondence
Damjanović et al. Local stereo matching using adaptive local segmentation
CN113344989B (zh) 一种NCC和Census的最小生成树航拍图像双目立体匹配方法
Zhang et al. Local stereo disparity estimation with novel cost aggregation for sub-pixel accuracy improvement in automotive applications
Borisagar et al. Census and segmentation-based disparity estimation algorithm using region merging

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant