CN108460792B - 一种基于图像分割的高效聚焦立体匹配方法 - Google Patents

一种基于图像分割的高效聚焦立体匹配方法 Download PDF

Info

Publication number
CN108460792B
CN108460792B CN201611136224.0A CN201611136224A CN108460792B CN 108460792 B CN108460792 B CN 108460792B CN 201611136224 A CN201611136224 A CN 201611136224A CN 108460792 B CN108460792 B CN 108460792B
Authority
CN
China
Prior art keywords
image
pixel
value
matching
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611136224.0A
Other languages
English (en)
Other versions
CN108460792A (zh
Inventor
张毅
孙希峰
韩静
柏连发
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201611136224.0A priority Critical patent/CN108460792B/zh
Publication of CN108460792A publication Critical patent/CN108460792A/zh
Application granted granted Critical
Publication of CN108460792B publication Critical patent/CN108460792B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明提出一种基于图像分割的高效聚焦立体匹配方法。首先利用图像分割方法把参考图像分割成不同的图像块,对参考图像和待匹配图像同时进行Census变换得到序列值,然后利用邻域像素视差对待匹配像素视差范围进行动态矫正,最后采用匹配代价函数,以分割块作为支撑窗口,利用序列值进行代价计算,通过窗口在水平方向上的移动计算每个分割块内的代价聚合值,最小的代价聚合值对应的水平偏移量表示该分割块的最佳视差值。本发明不仅可以提高深度不连续区域的匹配精度,同时也具有较高的计算效率,此外,在不同的光照环境下也具有很好的鲁棒性。

Description

一种基于图像分割的高效聚焦立体匹配方法
技术领域
本发明属于立体视觉技术领域,具体涉及一种基于图像分割的高效聚焦立体匹配方法。
背景技术
立体匹配是计算机视觉中最重要的领域之一,它的主要目的是从立体图像对中找出对应的点并计算出稠密视差图。最近几十年已经提出了许多算法,基于代价聚合过程的不同可以分为全局匹配算法和局部匹配算法(参见文献一D.Scharstein andR.Szeliski.A taxonomy and evaluation of dense two-frame stereo correspondencealgorithms[J].
IJCV,47(1/2/3:7-42,2002.)。全局匹配算法通常先根据各自约束条件建立一个能量函数,然后通过对能量函数进行多次迭代和优化得到视差结果。全局匹配算法的视差结果比较精确,但是计算时间太长,因此并不适合实时处理。与全局匹配算法相比,局部匹配算法更加简单和快速。然而对于相似区域的像素,利用基于窗口的局部匹配算法来计算出待匹配图像中的对应像素也是比较困难的。此外,局部匹配算法在深度不连续区域的误匹配率较高。因此研究出一种可以同时提高匹配精度和计算效率的匹配算法是目前的主流方向。
目前匹配精度较高的局部匹配算法都是基于图像分割(参见文献二F.Tombari,S.Mattoccia,and L.Di Stefano.Segmentation-based adaptive support for accuratestereo correspondence.In Proc.IEEE Pacific-Rim Symposium on Image and VideoTechnology,2007.)或者自适应权重(参见文献三K.Yoon and I.Kweon.Adaptivesupport-weight approach for correspondence search.IEEE Trans.PAMI,28(4):650-656,2006.)。与基于自适应窗口的局部匹配算法不同,自适应权重算法利用固定尺寸大小的矩形窗口,通过计算窗口中每个像素与中心像素的颜色相似性和空间邻近性来分配支撑权值。实验结果表明自适应权重算法在深度不连续区域以及颜色相似区域都可以取得精确的匹配结果,唯一不足的是处理时间过于漫长,不适合实时匹配。
文献四F.Tombari,S.Mattoccia,and L.Di Stefano,E.Addimanda.Near real-time stereo based on effective cost aggregation.International Conference OnPattern Recognition.
ICPR(2008).提出的也是基于图像分割的方法,该算法提高了计算效率,近于实时处理。由于高纹理区域的分割块面积很小,对这一部分的匹配会有误差,因此在代价聚合过程中又增加了矩形固定窗口。然而矩形固定窗口会带来边界模糊问题,导致深度不连续区域的误匹配。同时对于存在光照变化和噪声的图像,该算法也存在误匹配。
文献五Man Li,Jing Han,Yi Zhang,Lianfa Bai:An improved stereo based oneffective cost aggregation.Proc.SPIE9675AOPC 2015:Image Processing andAnalysis,2015在已有基础上进行改进,并没有明显降低深度不连续区域的误匹配率。
发明内容
本发明提出一种基于图像分割的高效聚焦立体匹配方法,提高了深度不连续区域的匹配精度,减小了存在光照变化的图像的误匹配率。
为了解决上述技术问题,本发明提供一种。。
本发明与现有技术相比,其显著优点在于:
(1)本发明在匹配之前对左右图像进行Census变换,不仅可以解决光照前度以及曝光时间带来的幅度失真问题,还有效抑制了噪声带来的误匹配。
(2)本发明利用邻域像素视差值对待匹配像素的视差范围进行动态矫正,有效缩短了匹配时间,使之更适用于实时匹配应用场景。
(3)本发明中的代价聚合函数充分考虑了Census变换后序列值的灰度分布和结构变化,将代价值大于固定阈值的像素点置为1,代价值小于固定阈值的像素点置为0,大大提高了深度不连续区域的匹配精确度。
(4)传统的局部立体匹配算法是利用固定窗口逐个像素计算其匹配代价从而得到相应的视差结果,本发明利用分割块作为聚焦区域,将窗口内具有相同视差值的像素聚集起来,能够直接计算出整个分割块内所有像素的视差值,大大提高了运算效率。
附图说明
图1是本发明基于图像分割的高效聚焦立体匹配方法的流程图。
图2是采用国际标准middlebury网站的图像对已有技术进行测试的匹配结果示意图。
图3是本发明对原始图像进行Census变换前后的窗口示意图。
图4是本发明对视差范围进行动态矫正示意图。
图5是采用国际标准middlebury网站的图像对本发明方法进行测试的匹配结果示意图。
图6是采用存在光照变化的图像对本发明方法进行测试的匹配结果示意图。
具体实施方式
容易理解,依据本发明的技术方案,在不变更本发明的实质精神的情况下,本领域的一般技术人员可以想象出本发明基于图像分割的高效聚焦立体匹配方法的多种实施方式。因此,以下具体实施方式和附图仅是对本发明的技术方案的示例性说明,而不应当视为本发明的全部或者视为对本发明技术方案的限制或限定。
结合附图,本发明基于图像分割的高效聚焦立体匹配方法,步骤如下:
步骤一,极线矫正。
通过相机标定获得相机的内外参数,进而得到相机的变换矩阵。利用左图像IL(i,j)的相机变换矩阵HL和右图像IR(i,j)的相机变换矩阵HR分别对左图像和右图像进行极线矫正,使两幅图像中的对应匹配点在垂直方向上的视差值为零。这样在立体匹配的过程中,只需要在同一行上搜索对应的匹配点,大大提高了匹配的精度和速度。极线矫正的计算方法如公式(1)所示:
Figure BDA0001176974470000031
式(1)中,(xL,yL)为左图像的横、纵坐标,(xR,yR)为右图像的横、纵坐标,XL0为原始左图像的坐标向量,XL为极线矫正后左图像的坐标向量,XR0为原始右图像的坐标向量,XR为极线矫正后右图像的坐标向量,T为转置运算符。
步骤二,图像分割。
假设:视差值在颜色相似区域内是一致的或是平滑变化的,深度不连续只发生在物体边缘区域。基于该假设,本发明把左图像分割成不同的区域块,每个分割块具有相同的颜色。为了获得显著的分割结果,本发明采用了一种经典和高效的图像分割方法——Mean-Shift方法。在本发明中,作为一个实施例,Mean-Shift方法的常量设置如下:hs=10(坐标窗口半径),hr=7(颜色窗口半径),M=30(最小区域尺寸)。
步骤三,Census变换。
对步骤一进行极线矫正之后的左右图像分别进行Census变换。在立体图像的拍摄过程中,由于左右摄像机所处的位置不同以及摄像机本身探测器的差异,所拍摄到的图像可能会受光照和噪声的影响,空间中某一点在两幅图像上成像的两个像素点所对应的灰度值可能相差很大。为了消除光照等其他因素对匹配结果的影响,对参考图像和待匹配图像先进行Census变换,如图3所示。
步骤四,动态视差范围矫正。
如图4所示,i为当前像素。若要求当前像素i的视差值,应该先确定视差搜索范围。以框内的10个像素点为参考对象,它们的视差值分别为di-1,di-2,...di-10,求这10个参考像素点视差平均值E,如公式(2)所示:
Figure BDA0001176974470000041
利用邻域像素视差最大值和最小值,求参考像素视差的动态范围δ,如公式(3):
δ=max(dn)-min(dn)n=i-1,i-2,...,i-10 (3)
利用参考像素的视差平均值E和动态范围δ,将待匹配像素的视差搜索范围更新为:
di=(E-δ,E+δ) (4)
以标准图片“Teddy”为例,默认视差搜索范围为0-59。若对于某个像素i,根据其参考像素计算得到的E=20,δ=10,那么di=20±10,即像素i的搜索范围将矫正为10-30,这样计算效率将提高一倍以上。
步骤五,高效聚焦策略。
以步骤二得到的图像分割块作为匹配窗口,对步骤三进行Census变换后的左图像和右图像进行匹配代价计算,匹配代价函数如公式(5)所示:
δ(p,q)=1-cos(Ip,Iq)+λdis(Ip,Iq) (5)
设定右图为参考图像,左图为待匹配图像,p和q分别为参考图像和待匹配图像中的一对待匹配点,δ(p,q)表示像素p和像素q之间的相似性,Ip表示像素p的序列值,Iq表示像素q的序列值,cos(Ip,Iq)表示Ip和Iq的余弦相似度,反应了向量间的空间结构相似性,如公式(6)所示:
Figure BDA0001176974470000042
dis(Ip,Iq)表示Ip和Iq的模的绝对值差,反应了向量间的灰度相似性,如公式(7)所示:
dis(Ip,Iq)=||Ip|-|Iq|| (7)
λ为固定常数,因为0≤1-cos(Ip,Iq)≤1,0≤dis(Ip,Iq)≤80且为正整数,为了平衡两者的权重,对dis(Ip,Iq)进行归一化,取λ=1/80。
将式(5)的计算结果δ(p,q)与经验阈值Th进行比较,若δ(p,q)<Th,则说明像素q为像素p的对应点,将比较结果置为0;若δ(p,q)≥Th,则说明q为误匹配点,比较结果置为1,如式(8)所示:
Figure BDA0001176974470000051
n(p,q)为δ(p,q)与经验阈值Th的比较值。
最后将窗口内所有像素的比较值聚合起来,如公式(9)所示:
Figure BDA0001176974470000053
Cs(p,q,d)为像素p所在分割块总的聚合值,Cs(p,q,d)越小表示像素p所在的分割块和像素q所在的分割块越相似,即像素p和像素q正确匹配的可能性越高。d为像素p和像素q的视差值,Sp为像素p所在的分割块,pi为p所在分割块内所有的像素,qi为q所在分割块内所有的像素。在视差搜索范围内通过改变d的值计算不同的d所对应的Cs(p,q,d),根据WTA视差计算原则,当Cs(p,q,d)取最小值时所对应的d就是像素p的最佳视差值。
本发明方法与背景技术中文献四和文献五所提方法做了对比,如表1所示,可以看出,本发明减小误匹配率。
表1现有方法与本发明方法对标准图库进行测试时的误匹配率
Figure BDA0001176974470000052

Claims (4)

1.一种基于图像分割的高效聚焦立体匹配方法,其特征在于,包括以下步骤:
步骤1:对左右两幅图像进行极线矫正,使左右两幅图像中的对应匹配点在垂直方向上的视差值为零;
步骤2:对步骤一进行极线矫正之后的右图像进行图像分割,得到不同的分割块,分割块内的像素具有相同或相近的颜色;
步骤3:对步骤一进行极线校正之后的左右图像分别进行Census变换,Census变换结果用序列值表示;
步骤4:对于当前待匹配像素,分别计算邻域像素视差值的平均值以及动态范围,根据所述平均值和动态范围对当前待匹配像素的视差范围进行动态矫正,得到当前待匹配像素的视差搜索范围;
步骤5:以步骤二分割出来的分割块作为匹配窗口,对步骤三的序列值进行匹配代价计算,将计算出来的匹配代价值与固定阈值进行比较,最后将窗口内所有像素的比较值聚合起来,根据WTA视差计算准则寻找最优视差值;步骤5中,
设定右图为参考图像、左图为待匹配图像,则匹配代价值时使用的匹配代价函数如公式(5)所示:
δ(p,q)=1-cos(Ip,Iq)+λdis(Ip,Iq) (5)
其中,p和q分别为参考图像和待匹配图像中的一对待匹配点,δ(p,q)表示像素p和像素q之间的相似性,Ip表示像素p的序列值,Iq表示像素q的序列值,cos(Ip,Iq)表示Ip和Iq的余弦相似度,其如公式(6)所示:
Figure FDA0003191188560000011
dis(Ip,Iq)表示Ip和Iq的模的绝对值差,其如公式(7)所示:
dis(Ip,Iq)=||Ip|-|Iq|| (7)
λ为固定常数;
将匹配代价值δ(p,q)与经验阈值Th进行比较的方法如式(8)所示,
Figure FDA0003191188560000012
若δ(p,q)<Th,则说明像素q为像素p的对应点,将比较结果置为0;若δ(p,q)≥Th,则说明q为误匹配点,比较结果置为1;
根据匹配窗口在待匹配图像中的移动,计算每次平移窗口内所对应的聚合值,将最小的聚合值所对应的偏移量作为最优视差值。
2.根据权利要求1所述高效聚焦立体匹配方法,其特征在于,步骤1中图像极线矫正的计算方法如公式(1)所示:
Figure FDA0003191188560000021
式(1)中,(xL,yL)为左图像的横、纵坐标,(xR,yR)为右图像的横、纵坐标,XL0为原始左图像的坐标向量,XL为极线矫正后左图像的坐标向量,XR0为原始右图像的坐标向量,XR为极线矫正后右图像的坐标向量,T为转置运算符。
3.根据权利要求1 所述高效聚焦立体匹配方法,其特征在于,步骤2中,使用Mean-Shift方法对右图像进行图像分割,Mean-Shift方法中的常量设置如下:
坐标窗口半径hs=10;
颜色窗口半径hr=7;
最小区域尺寸M=30。
4.根据权利要求1 所述高效聚焦立体匹配方法,其特征在于,步骤4中,
邻域像素视差值的平均值E的计算方式如式(2)所示,
Figure FDA0003191188560000022
其中,i为当前像素,以当前像素i的10个邻域像素视差值作为参考对象,n=i-1,… ,i-10,则di-1,di-2,...di-10分别为当前像素i的10个邻域像素视差值;
参考像素视差的动态范围δ的计算方法如公式(3)所示,
δ=max(dn)-min(dn) n=i-1,i-2,...,i-10 (3)
视差搜索范围的更新方法如式(4)所示,
di=(E-δ,E+δ) (4)。
CN201611136224.0A 2016-12-12 2016-12-12 一种基于图像分割的高效聚焦立体匹配方法 Active CN108460792B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611136224.0A CN108460792B (zh) 2016-12-12 2016-12-12 一种基于图像分割的高效聚焦立体匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611136224.0A CN108460792B (zh) 2016-12-12 2016-12-12 一种基于图像分割的高效聚焦立体匹配方法

Publications (2)

Publication Number Publication Date
CN108460792A CN108460792A (zh) 2018-08-28
CN108460792B true CN108460792B (zh) 2021-09-21

Family

ID=63221582

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611136224.0A Active CN108460792B (zh) 2016-12-12 2016-12-12 一种基于图像分割的高效聚焦立体匹配方法

Country Status (1)

Country Link
CN (1) CN108460792B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110443186B (zh) * 2019-07-31 2022-04-15 深圳市道通智能航空技术股份有限公司 立体匹配方法、图像处理芯片及移动载具
CN112823378A (zh) * 2020-07-03 2021-05-18 深圳市大疆创新科技有限公司 图像深度信息确定方法、装置、设备和存储介质
CN112070821B (zh) * 2020-07-31 2023-07-25 南方科技大学 一种低功耗立体匹配系统及获取深度信息的方法
CN112750154A (zh) * 2020-12-31 2021-05-04 湖南大学 一种基于双目视觉的立体匹配方法
CN112699204B (zh) * 2021-01-14 2021-08-27 国家卫星海洋应用中心 空间匹配窗口的确定方法和装置
CN113763269B (zh) * 2021-08-30 2023-11-24 上海工程技术大学 一种用于双目图像的立体匹配方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120163704A1 (en) * 2010-12-23 2012-06-28 Electronics And Telecommunications Research Institute Apparatus and method for stereo matching
CN102930530A (zh) * 2012-09-26 2013-02-13 苏州工业职业技术学院 一种双视点图像的立体匹配方法
CN104574391A (zh) * 2014-12-29 2015-04-29 西安交通大学 一种基于自适应特征窗口的立体视觉匹配方法
CN104867135A (zh) * 2015-05-04 2015-08-26 中国科学院上海微系统与信息技术研究所 一种基于指导图像引导的高精度立体匹配方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120163704A1 (en) * 2010-12-23 2012-06-28 Electronics And Telecommunications Research Institute Apparatus and method for stereo matching
CN102930530A (zh) * 2012-09-26 2013-02-13 苏州工业职业技术学院 一种双视点图像的立体匹配方法
CN104574391A (zh) * 2014-12-29 2015-04-29 西安交通大学 一种基于自适应特征窗口的立体视觉匹配方法
CN104867135A (zh) * 2015-05-04 2015-08-26 中国科学院上海微系统与信息技术研究所 一种基于指导图像引导的高精度立体匹配方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A stereo matching handling model in low-texture region;Yi MA 等;《Image Processing and Analysis》;20150505;正文第1-6页 *

Also Published As

Publication number Publication date
CN108460792A (zh) 2018-08-28

Similar Documents

Publication Publication Date Title
CN108460792B (zh) 一种基于图像分割的高效聚焦立体匹配方法
US11562498B2 (en) Systems and methods for hybrid depth regularization
CN110310310B (zh) 一种针对航空影像配准的改进方法
CN110853151A (zh) 一种基于视频的三维立体点集恢复方法
CN108305277B (zh) 一种基于直线段的异源图像匹配方法
CN110753181A (zh) 一种基于特征跟踪和网格路径运动的视频稳像方法
CN106651897B (zh) 一种基于超像素分割的视差修正方法
CN108181319A (zh) 一种基于立体视觉的积尘检测装置及方法
Yuan et al. 3D reconstruction of background and objects moving on ground plane viewed from a moving camera
CN110796691A (zh) 一种基于形状上下文和hog特征的异源图像配准方法
TWI394097B (zh) 移動物體的偵測方法以及偵測系統
CN108109148A (zh) 图像立体分配方法、移动终端
CN113538569A (zh) 一种弱纹理物体位姿估计方法和系统
KR20150053438A (ko) 스테레오 매칭 시스템과 이를 이용한 시차 맵 생성 방법
CN104038752B (zh) 基于三维高斯混合模型的多视点视频直方图颜色校正
Wang et al. Robust color correction in stereo vision
CN116310131A (zh) 一种考虑多视图融合策略的三维重建方法
CN111127353A (zh) 一种基于块配准和匹配的高动态图像去鬼影方法
CN107122782B (zh) 一种均衡的半密集立体匹配方法
CN110610503B (zh) 一种基于立体匹配的电力刀闸三维信息恢复方法
CN110487254B (zh) 一种用于rov的水下目标尺寸快速测量方法
Williem et al. Depth map estimation and colorization of anaglyph images using local color prior and reverse intensity distribution
CN111062900A (zh) 一种基于置信度融合的双目视差图增强方法
KR101178015B1 (ko) 시차 맵 생성 방법
CN112700504B (zh) 一种多视角远心相机的视差测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant