CN104123727A - 一种基于自适应高斯加权的立体匹配方法 - Google Patents
一种基于自适应高斯加权的立体匹配方法 Download PDFInfo
- Publication number
- CN104123727A CN104123727A CN201410358425.XA CN201410358425A CN104123727A CN 104123727 A CN104123727 A CN 104123727A CN 201410358425 A CN201410358425 A CN 201410358425A CN 104123727 A CN104123727 A CN 104123727A
- Authority
- CN
- China
- Prior art keywords
- point
- component
- view
- method based
- matching method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明涉及一种基于自适应高斯加权的立体匹配方法,按照如下步骤实现:在目标视图和参考视图中在同一水平方向上分别取一中心点构建相关窗;计算相关窗范围内的目标视图和参考视图对应中心点灰度差异值;计算目标视图和参考视图中中心点周围预设个数的像素与中心点的颜色权重;分别计算目标视图和参考视图中中心点周围的预设个数的像素与中心点的高斯权重;结合上述步骤计算聚合代价并在参考视图最大范围内移动参考视图中心点后重复上述步骤,计算在最大范围内的聚合代价;用WTA方法进行视差优选。本发明通过提供一种基于高斯分布改进的立体匹配方法,更清楚的保留了边缘细节信息,解决了根据经验确定相关窗大小的问题,得到了更加精确的视差图。
Description
技术领域
本发明涉及立体匹配求取视差图,尤其是一种基于自适应高斯加权的立体匹配方法。
背景技术
立体匹配技术的基本原理是从多个视点观察同一物体,以获得不同视角下的图像;通过算法处理计算出相应的视差图从而获得该物体的三维信息。近几年来立体匹配技术成为视觉领域的研究重点,在诸如:绘制虚拟视点、重构三维图像、虚拟实现方面都有广泛应用。
立体匹配方法一般分为两大类:局部立体匹配方法和全局立体匹配方法,全局立体匹配方法精度较高,但是处理速度很慢。局部立体匹配方法经过这些年的发展不但速度明显快于全局立体匹配在精度上也有很大的提高。
当前研究重点集中在经典局部立体匹配方法,即自适应加权法。Yoon提出的自适应加权立体匹配方法不但在深度不连续部分有良好的效果而且在低纹理部分也有较好的效果,但是在物体边缘细节方面效果并不是非常好。
发明内容
本发明的目的在于提供一种基于自适应高斯加权的立体匹配方法,以解决传统自适应加权法边缘细节不突出,凭经验设定窗口大小等问题。
为实现上述目的,本发明的技术方案是:一种基于自适应高斯加权的立体匹配方法,其特征在于,按照如下步骤实现:
S1:在目标视图中取一点,表示为点 ;以所述点为中心、为边长在所述目标视图中构造正方形相关窗,为第一相关窗;在参考视图中,与所述目标视图相同的水平方向上最大视差范围内取一点,表示为点;以所述点为中心、为边长在所述参考视图中构造正方形相关窗,为第二相关窗;
S2:在当前视差下,将所述第一相关窗中所述点周围的()个像素表示为;将所述第二相关窗中所述点周围的()个像素表示为;所述与所述一一对应,并取所述和所述在RGB空间内的差异值为;
S3:在所述第一相关窗范围内取所述点和所述之间的颜色权值为;在所述第二相关窗范围内取所述点和所述之间的颜色权值为;
S4:在所述第一相关窗范围内取所述点和所述之间的高斯权值为;在所述第二相关窗范围内取所述点和所述之间的高斯权值为;
S5:将所述步骤S2、所述步骤S3和所述步骤S4中的计算结果加以聚合,得聚合代价;
S6:保持所述点在所述目标视图中的位置不变,在所述参考视图中水平方向最大视差范围内以所述点为参考点,并根据方向原则水平移动所述点,并重复所述步骤S2、所述步骤S3、所述步骤S4和所述步骤S5得到最大视差范围内的聚合代价;
S7:根据赢家通吃WTA法则处理所述最大视差范围内的聚合代价,即选取最大视差范围内的聚合代价最小值;则该值所对应的视差即为所述点在所述参考视图中对应的视差。
在本发明一实施例中,在所述步骤S2中所述差异值 ;其中、和分别是所述在RGB空间中对应的R、G、B分量;、和分别是所述在RGB空间中对应的R、G、B分量。
在本发明一实施例中,在所述步骤S3中,所述颜色权值;其中、和为所述在CIELab空间中的L分量、a分量和b分量;、和为所述点在CIELab空间中的L分量、a分量和b分量;为经验值常量。所述颜色权值;其中、和为所述在CIELab空间中的L分量、a分量和b分量;、和为所述点在CIELab空间中的L分量、a分量和b分量;为经验值常量。
在本发明一实施例中,在所述步骤S4中,所述高斯权值,为所述点的水平坐标,为所述的水平坐标,为尺度分量;的值越大,边缘细节信息越清晰但相对噪点越多;所述用于通过高斯分布于原理确定所述的值;所述高斯权值,为所述点的水平坐标,为所述的水平坐标,为尺度分量。
在本发明一实施例中,所述聚合代价。
在本发明一实施例中,在所述步骤S6中,所述方向原则为:若所述目标视图为左视图,则参考点向右依次移动;若所述目标视图为右视图,则参考点向左依次移动。
相较于现有技术,本发明具有以下有益效果:
本发明通过提供一种利用高斯分布代替传统自适应加权法中的空间临近性权值的改进自适应加权立体匹配算法,相对于之前的传统自适应加权法提高了边缘细节,便于确定相关窗口大小,能更清楚的保留边缘细节信息,解决根据经验确定相关窗大小的问题,得到更加精确的视差图。
附图说明
图1为本发明中基于自适应高斯加权的立体匹配方法的流程图。
图2为本发明基于自适应高斯加权的立体匹配方法的示意图。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
本发明一种基于自适应高斯加权的立体匹配方法,其特征在于,如图1所示,按照如下步骤实现:
S1:在目标视图中取一点,表示为点;以所述点为中心、为边长在所述目标视图中构造正方形相关窗,为第一相关窗;在参考视图中,与所述目标视图相同的水平方向上最大视差范围内取一点,表示为点;以所述点为中心、为边长在所述参考视图中构造正方形相关窗,为第二相关窗;
S2:在当前视差下,将所述第一相关窗中所述点周围的()个像素表示为;将所述第二相关窗中所述点周围的()个像素表示为;所述与所述一一对应,并取所述和所述在RGB空间内的差异值为;
S3:在所述第一相关窗范围内取所述点和所述之间的颜色权值为;在所述第二相关窗范围内取所述点和所述之间的颜色权值为;
S4:在所述第一相关窗范围内取所述点和所述之间的高斯权值为;在所述第二相关窗范围内取所述点和所述之间的高斯权值为;
S5:将所述步骤S2、所述步骤S3和所述步骤S4中的计算结果加以聚合,得聚合代价;
S6:保持所述点在所述目标视图中的位置不变,在所述参考视图中水平方向最大视差范围内以所述点为参考点,并根据方向原则水平移动所述点,并重复所述步骤S2、所述步骤S3、所述步骤S4和所述步骤S5得到最大视差范围内的聚合代价;
S7:根据赢家通吃WTA法则处理所述最大视差范围内的聚合代价,即选取最大视差范围内的聚合代价最小值;则该值所对应的视差即为所述点在所述参考视图中对应的视差。
在本实施例中,在所述步骤S2中所述差异值 ;其中、和分别是所述在RGB空间中对应的R、G、B分量;、和分别是所述在RGB空间中对应的R、G、B分量。
在本实施例中,在所述步骤S3中,所述颜色权值;其中、和为所述在CIELab空间中的L分量、a分量和b分量;、和为所述点在CIELab空间中的L分量、a分量和b分量;为经验值常量。所述颜色权值;其中、和为所述在CIELab空间中的L分量、a分量和b分量;、和为所述点在CIELab空间中的L分量、a分量和b分量;为经验值常量。
在本实施例中,在所述步骤S4中,所述高斯权值,为所述点的水平坐标,为所述的水平坐标,为尺度分量;的值越大,边缘细节信息越清晰但相对噪点越多;所述用于通过高斯分布于原理确定所述的值;所述高斯权值,为所述点的水平坐标,为所述的水平坐标,为尺度分量。
在本实施例中,所述聚合代价。
在本实施例中,在所述步骤S6中,所述方向原则为:若所述目标视图为左视图,则参考点向右依次移动;若所述目标视图为右视图,则参考点向左依次移动。
如图2所示,在本实施例中,取点、、点、,以为正方形相关窗长度。计算、在RGB空间内差异值;计算点和的颜色权值,其中取常量7,同理为点和的颜色权值,其中取常量7;计算点和的高斯权值,同理,所述高斯权值为所述点和所述的高斯权值,其中;在本实施例中,根据高斯分布于原理在距离之外的像素都可以看作不起作用,所以相关窗大小可以根据值确定即,;在点的相关窗范围内和点的相关窗范围内通过上述步骤的计算结果并根据加以聚合得到聚合代价;保持位置不变,在右视图最大视差范围内根据方向原则水平移动点,重复代价聚合步骤得到最大视差范围内的聚合代价;根据赢家通吃WTA法则处理最大视差范围内的聚合代价,也就是选取最小值,该值所对应的视差即为点在右视图中对应的视差。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。
Claims (6)
1.一种基于自适应高斯加权的立体匹配方法,其特征在于,按照如下步骤实现:
S1:在目标视图中取一点,表示为点 ;以所述点为中心、为边长在所述目标视图中构造正方形相关窗,为第一相关窗;在参考视图中,与所述目标视图相同的水平方向上最大视差范围内取一点,表示为点;以所述点为中心、为边长在所述参考视图中构造正方形相关窗,为第二相关窗;
S2:在当前视差下,将所述第一相关窗中所述点周围的()个像素表示为;将所述第二相关窗中所述点周围的()个像素表示为;所述与所述一一对应,并取所述和所述在RGB空间内的差异值为;
S3:在所述第一相关窗范围内取所述点和所述之间的颜色权值为;在所述第二相关窗范围内取所述点和所述之间的颜色权值为;
S4:在所述第一相关窗范围内取所述点和所述之间的高斯权值为;在所述第二相关窗范围内取所述点和所述之间的高斯权值为;
S5:将所述步骤S2、所述步骤S3和所述步骤S4中的计算结果加以聚合,得聚合代价;
S6:保持所述点在所述目标视图中的位置不变,在所述参考视图中水平方向最大视差范围内以所述点为参考点,并根据方向原则水平移动所述点,并重复所述步骤S2、所述步骤S3、所述步骤S4和所述步骤S5得到最大视差范围内的聚合代价;
S7:根据赢家通吃WTA法则处理所述最大视差范围内的聚合代价,即选取最大视差范围内的聚合代价最小值;则该值所对应的视差即为所述点在所述参考视图中对应的视差。
2.根据权利要求1所述的一种基于自适应高斯加权的立体匹配方法,其特征在于:在所述步骤S2中所述差异值;其中、和分别是所述在RGB空间中对应的R、G、B分量;、和分别是所述在RGB空间中对应的R、G、B分量。
3.根据权利要求1所述的一种基于自适应高斯加权的立体匹配方法,其特征在于:在所述步骤S3中,所述颜色权值;其中、和为所述在CIELab空间中的L分量、a分量和b分量;、和为所述点在CIELab空间中的L分量、a分量和b分量;为经验值常量;所述颜色权值;其中、和为所述在CIELab空间中的L分量、a分量和b分量;、和为所述点在CIELab空间中的L分量、a分量和b分量;为经验值常量。
4.根据权利要求1所述的一种基于自适应高斯加权的立体匹配方法,其特征在于:在所述步骤S4中,所述高斯权值,为所述点的水平坐标,为所述的水平坐标,为尺度分量;的值越大,边缘细节信息越清晰但相对噪点越多;所述用于通过高斯分布于原理确定所述的值;所述高斯权值,为所述点的水平坐标,为所述的水平坐标,为尺度分量。
5.根据权利要求1所述的一种基于自适应高斯加权的立体匹配方法,其特征在于:所述聚合代价。
6.根据权利要求1所述的一种基于自适应高斯加权的立体匹配方法,其特征在于:在所述步骤S6中,所述方向原则为:若所述目标视图为左视图,则参考点向右依次移动;若所述目标视图为右视图,则参考点向左依次移动。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410358425.XA CN104123727B (zh) | 2014-07-26 | 2014-07-26 | 一种基于自适应高斯加权的立体匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410358425.XA CN104123727B (zh) | 2014-07-26 | 2014-07-26 | 一种基于自适应高斯加权的立体匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104123727A true CN104123727A (zh) | 2014-10-29 |
CN104123727B CN104123727B (zh) | 2017-02-15 |
Family
ID=51769124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410358425.XA Active CN104123727B (zh) | 2014-07-26 | 2014-07-26 | 一种基于自适应高斯加权的立体匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104123727B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104616304A (zh) * | 2015-02-11 | 2015-05-13 | 南京理工大学 | 一种基于fpga的自适应支撑权重的立体匹配方法 |
CN105989590A (zh) * | 2015-02-09 | 2016-10-05 | 北京三星通信技术研究有限公司 | 立体匹配方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102385752A (zh) * | 2011-11-01 | 2012-03-21 | 清华大学深圳研究生院 | 一种基于距离和色彩差异的立体匹配方法 |
CN103236057A (zh) * | 2013-04-24 | 2013-08-07 | 上海大学 | 一种改进的自适应权重视差匹配方法 |
CN103325120A (zh) * | 2013-06-30 | 2013-09-25 | 西南交通大学 | 一种快速自适应支持权值双目视觉立体匹配方法 |
CN103606162A (zh) * | 2013-12-04 | 2014-02-26 | 福州大学 | 一种基于图像分割的立体匹配算法 |
US20140078136A1 (en) * | 2012-09-18 | 2014-03-20 | Industry-Academic Cooperation Foundation, Yonsei University | Apparatus and method for synthesizing intermediate view image, recording medium thereof |
-
2014
- 2014-07-26 CN CN201410358425.XA patent/CN104123727B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102385752A (zh) * | 2011-11-01 | 2012-03-21 | 清华大学深圳研究生院 | 一种基于距离和色彩差异的立体匹配方法 |
US20140078136A1 (en) * | 2012-09-18 | 2014-03-20 | Industry-Academic Cooperation Foundation, Yonsei University | Apparatus and method for synthesizing intermediate view image, recording medium thereof |
CN103236057A (zh) * | 2013-04-24 | 2013-08-07 | 上海大学 | 一种改进的自适应权重视差匹配方法 |
CN103325120A (zh) * | 2013-06-30 | 2013-09-25 | 西南交通大学 | 一种快速自适应支持权值双目视觉立体匹配方法 |
CN103606162A (zh) * | 2013-12-04 | 2014-02-26 | 福州大学 | 一种基于图像分割的立体匹配算法 |
Non-Patent Citations (1)
Title |
---|
KUK-JIN YOON,IN-SO KWEON: "Locally Adaptive Support-Weight Approach for Visual Correspondence Search", 《IEEE TRANS. PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105989590A (zh) * | 2015-02-09 | 2016-10-05 | 北京三星通信技术研究有限公司 | 立体匹配方法和装置 |
CN105989590B (zh) * | 2015-02-09 | 2019-09-17 | 北京三星通信技术研究有限公司 | 立体匹配方法和装置 |
CN104616304A (zh) * | 2015-02-11 | 2015-05-13 | 南京理工大学 | 一种基于fpga的自适应支撑权重的立体匹配方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104123727B (zh) | 2017-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108010036B (zh) | 一种基于rgb-d相机的物体对称轴检测方法 | |
CN104200507B (zh) | 一种三维点云点法向量估计方法 | |
CN110148181A (zh) | 一种通用双目立体匹配方法 | |
CN107578430B (zh) | 一种基于自适应权值和局部熵的立体匹配方法 | |
CN103824050A (zh) | 一种基于级联回归的人脸关键点定位方法 | |
CN106709948A (zh) | 一种基于超像素分割的快速双目立体匹配方法 | |
Hamzah et al. | Stereo matching algorithm for 3D surface reconstruction based on triangulation principle | |
CN105469386B (zh) | 一种确定立体相机高度与俯仰角的方法及装置 | |
CN103325120A (zh) | 一种快速自适应支持权值双目视觉立体匹配方法 | |
WO2014073670A1 (ja) | 画像処理方法及び画像処理装置 | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
CN104240229B (zh) | 一种红外双目相机自适应极线校正方法 | |
CN104200453B (zh) | 基于图像分割和可信度的视差图像校正方法 | |
CN108460792B (zh) | 一种基于图像分割的高效聚焦立体匹配方法 | |
CN104134203A (zh) | 一种近景摄影测量的快速密集匹配法 | |
Shivakumar et al. | Real time dense depth estimation by fusing stereo with sparse depth measurements | |
KR20150053438A (ko) | 스테레오 매칭 시스템과 이를 이용한 시차 맵 생성 방법 | |
CN109508673A (zh) | 一种基于棒状像素的交通场景障碍检测与识别方法 | |
CN103489183B (zh) | 一种基于边缘分割和种子点的局部立体匹配方法 | |
CN105046691A (zh) | 一种基于正交消失点的相机自标定方法 | |
CN104123727A (zh) | 一种基于自适应高斯加权的立体匹配方法 | |
CN107330906A (zh) | 基于曲线拟合的改进细化算法 | |
CN104463896B (zh) | 基于核相似区分布特性的图像角点检测方法及系统 | |
CN107730543B (zh) | 一种半稠密立体匹配的快速迭代计算方法 | |
CN104123715B (zh) | 配置视差值的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |