CN106097336A - 基于置信传播和自相似差异测度的前后景立体匹配方法 - Google Patents
基于置信传播和自相似差异测度的前后景立体匹配方法 Download PDFInfo
- Publication number
- CN106097336A CN106097336A CN201610405793.4A CN201610405793A CN106097336A CN 106097336 A CN106097336 A CN 106097336A CN 201610405793 A CN201610405793 A CN 201610405793A CN 106097336 A CN106097336 A CN 106097336A
- Authority
- CN
- China
- Prior art keywords
- node
- belief propagation
- self
- algorithm
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000005259 measurement Methods 0.000 title abstract description 8
- 239000007787 solid Substances 0.000 title abstract 3
- 238000009499 grossing Methods 0.000 claims description 3
- 238000002790 cross-validation Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 238000011524 similarity measure Methods 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000010796 Steam-assisted gravity drainage Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于置信传播和自相似差异测度的前后景立体匹配方法,包括:首先,分别采用置信传播算法和自相似差异测度算法对图像进行立体匹配,获得各自的视差图;然后,利用分段函数融合置信传播算法和自相似差异测度算法,匹配出视差图中的前景信息和背景信息。本发明提供的基于置信传播和自相似差异测度的前后景立体匹配方法,具有很好的立体匹配精度。
Description
技术领域
本发明涉及计算机视觉技术领域,更为具体地,涉及一种基于置信传播和自相似差异测度的前后景立体匹配方法。
背景技术
立体匹配是目前最热点的计算机视觉方向之一。其目标是在不同的视点视角及不同的时间地点,在一幅或几幅图片中找出对应点,进而获得一个稠密的深度或视差映射图。
目前常见的立体匹配方法包括局部方法和全局方法。全局方法主要包括图割(GC)和置信传播(BP)方法。全局方法精度较高,但速度相对较慢,难以满足实时、准确、快速的应用,尤其在三维重建、立体视频、机器人导航等对实时性较高的领域无法满足。局部算法虽然速度快,但精度较差。
发明内容
鉴于上述问题,本发明的目的是提供一种基于置信传播和自相似差异测度的前后景立体匹配方法,以解决现有引导滤波的立体匹配方法在大面积的低纹理区域和不连续区域边界存在缺陷的问题。
本发明提供一种基于置信传播和自相似差异测度的前后景立体匹配方法,包括:
步骤S1:分别采用置信传播算法和自相似差异测度算法对图像进行立体匹配,获得各自的视差图;
步骤S2:利用分段函数融合置信传播算法和自相似差异测度算法,匹配出视差图中的前景信息和背景信息。
本发明提供的基于置信传播和自相似差异测度的前后景立体匹配方法,通过分段函数融合置信传播算法和自相似差异测度算法,具有很好的立体匹配的精度。
为了实现上述以及相关目的,本发明的一个或多个方面包括后面将详细说明并在权利要求中特别指出的特征。下面的说明以及附图详细说明了本发明的某些示例性方面。然而,这些方面指示的仅仅是可使用本发明的原理的各种方式中的一些方式。此外,本发明旨在包括所有这些方面以及它们的等同物。
附图说明
通过参考以下结合附图的说明及权利要求书的内容,并且随着对本发明的更全面理解,本发明的其它目的及结果将更加明白及易于理解。在附图中:
图1为根据本发明实施例的基于置信传播和自相似差异测度的前后景立体匹配方法的流程示意图。
在所有附图中相同的标号指示相似或相应的特征或功能。
具体实施方式
在下面的描述中,出于说明的目的,为了提供对一个或多个实施例的全面理解,阐述了许多具体细节。然而,很明显,也可以在没有这些具体细节的情况下实现这些实施例。在其它例子中,为了便于描述一个或多个实施例,公知的结构和设备以方框图的形式示出。
因为详细的细节信息,自相似差异测度在视差图中的前景信息上有较好的优势,由于置信传播推理,而置信传播算法拥有更好的背景映射。因此,本发明提出了基于分段思想,通过结合置信传播算法和自相似差异测度算法,能够提高视差图的效果,从而提高立体匹配精度,尤其是在不连续区域。
以下将结合附图对本发明的具体实施例进行详细描述。
图1示出了根据本发明实施例的基于置信传播和自相似差异测度的前后景立体匹配方法的流程。
如图1所示,本发明提供的基于置信传播和自相似差异测度的前后景立体匹配方法,包括:
步骤S1:分别采用置信传播算法和自相似差异测度算法对图像进行立体匹配,获得各自的视差图。
采用置信传播算法对图像进行立体匹配的过程,包括:
立体匹配可以归纳成能量函数最小化过程。在立体匹配中,可以通过马尔科夫随机场建立视差图模型来解决,并利用最大后验概率获得最优视差值,然后构建能量函数。
步骤S11:构建基于马尔科夫随机场的联合概率函数。
参考图像与模板图像是否匹配,可以通过两个像素的灰度或颜色差来决定。定义数据约束项φ(xp,yp)来表示灰度匹配的可信程度,定义平滑约束项Ψ(xi,yj)表示平滑匹配可信程度。通过平滑项和数据项的构建,可以得到MRF基于马尔科夫随机场的联合概率函数为:
其中:N代表节点数目,(i,j)表示一对相邻节点,xn代表位于节点n的视差值,yn代表位于节点n的像素值;
步骤S12:对式(1)取负对数,获得基于置信传播算法的能量函数E(·):
其中,D(·)和V(·)代表能量函数的数据项和平滑项;
步骤S13:通过节点的邻域信息更新消息。
置信传播算法是通过在图像四邻域或八邻域网格上通过迭代的方式传递消息来完成,消息更新通过节点的邻域信息,公式如下:
其中,mright(xj),mup(xj),mdown(xj)是代表从节点i上、下、右传来的消息;
步骤S14:更新每个节点的置信度:
其中,κ代表归一化常量,mks(Xs)表示节点k向节点s传播的信息,ms(xs)表示节点s的信息,xs表示位于节点s的视差值,xk表示位于节点k的视差值;
步骤S15:将s节点的最大置信度作为s节点的最优视差,s节点的最大置信度为:
步骤S16:通过s节点的最优视差获得视差图的视差值:
dBP=arg min E(xs,ys)。
其中,σ表示节点s的可能视差集。
采用自相似差异测度算法对图像进行立体匹配的过程,包括:
仅依靠全局算法不足以获得精确的视差值,因为由于全局信息传递,使像素视差值易受临近像素值影响,若是传递信息准确,获得精确的视差值;若存在噪音或相邻像素值不准确会造成视差值偏差。
自相似差异测度算法在一定程度上能避免上述问题,自相似差异测度算法是一个局部算法,结合了绝对灰度差异算法(absolute intensity differences(SAD))和绝对梯度差异算法(absolute gradient-based differences measure(SAGD))。传统的测度仅仅考虑左右图像像素之间的测度关系,没有考虑到梯度测度关系,自相似加权融合了绝对灰度差和基于梯度的测度算法,使算法鲁棒性更强、准确性更高。利用自相似差异测度,其可有效结合图像信息和梯度信息。
设像素位置(x,y)∈Ω,d为视差值,N(x,y)为一个5×5的窗口,IL和IR分别表示参考图像和目标图像,则:
绝对灰度差异测度CSAD(·)的公式为:
绝对梯度差异测度CGRAD(·)的公式为:
其中,NX(x,y)表示没有最右侧的邻域,NY(x,y)表示没有最低侧的邻域,▽X表示X方向的中心差分,▽Y代表Y方向的中心差分,▽Y代表Y方向的中心差分,像素位置(x,y)∈Ω,d为视差值,N(x,y)为一个5×5的窗口,IL和IR分别表示参考图像和目标图像;
自相似差异测度算法被定义为:
其中,和分别被定义为CSAD(·)和CGRAD(·)的权重函数。
之后,采用左右图像的交叉验证和胜者优先算法(WTA算法,为现有技术,故在此不再赘述),获得视差图的视差值为:
步骤S2:利用分段函数融合置信传播算法和自相似差异测度算法,匹配出视差图中的前景信息和背景信息。
通过大量实验,可以发现置信传播算法因为采用信息传播,在视差图背景信息方面有很大的优势,特别在低纹理和遮挡区域。同时自相似差异测度算法因为采用绝对灰度差和基于梯度的测度算法,可以有效描述细节信息,有很好的前景信息。因而本发明提出一种结合置信传播算法和自相似差异测度算法的分段立体匹配算法。具体地,在背景信息中采用置信传播算法,在前景信息中,采用自相似差异测度算法,在中间区域结合二者的优势的思路,具体公式如下:
设置置信传播算法的视差值为dBP,自相似差异测度算法的视差值为dSD,d*是通过融合置信传播算法和自相似差异测度算法最终获得的视差值,其属于一个有限的视差集带L离散视差的Γ=[d1,d2,…,dL],ε为一个误差阈值.具体地,为了避免可能的误差,设置d*作为较高的权重,接近d*区域设置较低的权重.分段函数d*(·)定义如下:
其中,xp表示位于节点p的视差值,min(dBP,dSD)表示取最小值,和分别代表上舍入和下舍入算子,在本发明中,误差阈值
在本发明中,如果视差值小于L/2,认为该视差值是视差图中的背景信息,如果视差值大于L/2,认为该视差值是视差图中的前景信息。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (5)
1.一种基于置信传播和自相似差异测度的前后景立体匹配方法,包括:
步骤S1:分别采用置信传播算法和自相似差异测度算法对图像进行立体匹配,获得各自的视差图;
步骤S2:利用分段函数融合所述置信传播算法和所述自相似差异测度算法,匹配出所述视差图中的前景信息和背景信息。
2.如权利要求1所述的基于置信传播和自相似差异测度的前后景立体匹配方法,其中,在利用所述置信传播算法对图像进行立体匹配的过程中,包括:
步骤S11:构建基于马尔科夫随机场的联合概率函数,所述联合概率函数为:
P(x1,x2,…,xN,y1,y2…,yN)=ΠΨ(xi,xj)Πφ(xp,yp)
其中,数据约束项φ(xp,yp)表示灰度匹配的可信程度,平滑约束项Ψ(xi,yj)表示平滑匹配可信程度,N表示节点数目;(i,j)表示一对相邻节点,xn表示位于节点n的视差值。yn表示位于节点n的像素值;
步骤S12:对所述联合概率函数取负对数,获得基于置信传播算法的能量函数E(·),所述能量函数E(·)为:
E(x1,x2,…,xN,y1,y2…,yN)=ΣV(xi,xj)+ΣD(xi,yi)
其中,D(·)和V(·)分别表示所述能量函数E(·)的数据项和平滑项;
步骤S13:通过节点的邻域信息更新消息,公式如下:
其中,mright(xj),mup(xj),mdown(xj)表示从节点i上、下、右传来的信息;
步骤S14:更新每个节点的置信度:
其中,κ表示归一化常量,mks(Xs)表示节点k向节点s传播的信息,ms(xs)表示节点s的信息,xs表示位于节点s的视差值,xk表示位于节点k的视差值;
步骤S15:将s节点的最大置信度作为s节点的最优视差,s节点的最大置信度为:
步骤S16:通过s节点的最优视差获得视差图的视差值:
其中,σ表示节点s的可能视差集。
3.如权利要求1所述的基于置信传播和自相似差异测度的前后景立体匹配方法,其中,步骤S2包括:
步骤S21:自定义所述自相似差异测度算法为:
其中,和分别被定义为CSAD(·)和CGRAD(·)的权重系数;
绝对灰度差异测度CSAD(·)被定义为:
绝对梯度差异测度CGRAD(·)被定义为:
其中,NX(x,y)表示没有最右侧的邻域,NY(x,y)表示没有最低侧的邻域,表示X方向的中心差分,代表Y方向的中心差分,像素位置(x,y)∈Ω,d为视差值,N(x,y)为一个5×5的窗口,IL和IR分别表示参考图像和目标图像;
步骤S22:采用左右图像的交叉验证和胜者优先算法获得视差图的视差值为:
4.如权利要求1所述的基于置信传播和自相似差异测度的前后景立体匹配方法,其中,所述分段函数d*(·)定义为:
其中,xp表示位于节点p的视差值,min(dBP,dSD)表示取最小值,d*为通过融合所述置信传播算法和所述自相似差异测度算法获得的视差值,其属于一个有限的视差集带L离散视差的Γ=[d1,d2,…,dL],ε为误差阈值,和分别代表上舍入和下舍入算子。
5.如权利要求4所述的基于置信传播和自相似差异测度的前后景立体匹配方法,其中,
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610405793.4A CN106097336B (zh) | 2016-06-07 | 2016-06-07 | 基于置信传播和自相似差异测度的前后景立体匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610405793.4A CN106097336B (zh) | 2016-06-07 | 2016-06-07 | 基于置信传播和自相似差异测度的前后景立体匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106097336A true CN106097336A (zh) | 2016-11-09 |
CN106097336B CN106097336B (zh) | 2019-01-22 |
Family
ID=57228993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610405793.4A Active CN106097336B (zh) | 2016-06-07 | 2016-06-07 | 基于置信传播和自相似差异测度的前后景立体匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106097336B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018098891A1 (zh) * | 2016-11-30 | 2018-06-07 | 成都通甲优博科技有限责任公司 | 一种立体匹配方法及系统 |
CN108269273A (zh) * | 2018-02-12 | 2018-07-10 | 福州大学 | 一种全景纵向漫游中极线匹配的置信传播方法 |
CN115689965A (zh) * | 2022-12-30 | 2023-02-03 | 武汉大学 | 面向整景卫星影像深度学习密集匹配的多级视差融合方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008156450A1 (en) * | 2007-06-20 | 2008-12-24 | Thomson Licensing | System and method for stereo matching of images |
CN102819843A (zh) * | 2012-08-08 | 2012-12-12 | 天津大学 | 基于边界控制置信传播的立体图像视差估计方法 |
CN103383776A (zh) * | 2013-07-14 | 2013-11-06 | 浙江大学 | 一种基于分段匹配和贝叶斯估计的递进式立体匹配算法 |
CN104766065A (zh) * | 2015-04-14 | 2015-07-08 | 中国科学院自动化研究所 | 基于多视角学习的鲁棒性前景检测方法 |
-
2016
- 2016-06-07 CN CN201610405793.4A patent/CN106097336B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008156450A1 (en) * | 2007-06-20 | 2008-12-24 | Thomson Licensing | System and method for stereo matching of images |
CN102819843A (zh) * | 2012-08-08 | 2012-12-12 | 天津大学 | 基于边界控制置信传播的立体图像视差估计方法 |
CN103383776A (zh) * | 2013-07-14 | 2013-11-06 | 浙江大学 | 一种基于分段匹配和贝叶斯估计的递进式立体匹配算法 |
CN104766065A (zh) * | 2015-04-14 | 2015-07-08 | 中国科学院自动化研究所 | 基于多视角学习的鲁棒性前景检测方法 |
Non-Patent Citations (3)
Title |
---|
刘英杰: "基于动态规划和置信传播的立体匹配算法的研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
张正华等: "基于加权匹配代价和色彩分割的快速立体匹配", 《综合电子信息技术》 * |
池凌鸿: "立体匹配算法的研究和应用", 《中国博士学位论文全文数据库信息科技辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018098891A1 (zh) * | 2016-11-30 | 2018-06-07 | 成都通甲优博科技有限责任公司 | 一种立体匹配方法及系统 |
CN108269273A (zh) * | 2018-02-12 | 2018-07-10 | 福州大学 | 一种全景纵向漫游中极线匹配的置信传播方法 |
CN108269273B (zh) * | 2018-02-12 | 2021-07-27 | 福州大学 | 一种全景纵向漫游中极线匹配的置信传播方法 |
CN115689965A (zh) * | 2022-12-30 | 2023-02-03 | 武汉大学 | 面向整景卫星影像深度学习密集匹配的多级视差融合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106097336B (zh) | 2019-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102074014B (zh) | 一种利用基于图论的图像分割算法的立体匹配方法 | |
CN108520554B (zh) | 一种基于orb-slam2的双目三维稠密建图方法 | |
US8199977B2 (en) | System and method for extraction of features from a 3-D point cloud | |
US9350969B2 (en) | Target region filling involving source regions, depth information, or occlusions | |
EP3182369B1 (en) | Stereo matching method, controller and system | |
CN102184540B (zh) | 基于尺度空间的亚像素级立体匹配方法 | |
US9380286B2 (en) | Stereoscopic target region filling | |
CN104318576B (zh) | 一种超像素级别的图像全局匹配方法 | |
CN105528785A (zh) | 一种双目视觉图像立体匹配方法 | |
CN107274483A (zh) | 一种物体三维模型构建方法 | |
CN104156957A (zh) | 一种稳定高效的高分辨率立体匹配方法 | |
JP6946255B2 (ja) | 学習装置、推定装置、学習方法およびプログラム | |
CN103106651A (zh) | 一种基于三维hough变换的获取视差平面的方法 | |
CN103458261A (zh) | 一种基于立体视觉的视频场景变化检测方法 | |
CN109887008B (zh) | 基于前后向平滑和o(1)复杂度视差立体匹配方法、装置和设备 | |
CN106097336B (zh) | 基于置信传播和自相似差异测度的前后景立体匹配方法 | |
CN109887021A (zh) | 基于跨尺度的随机游走立体匹配方法 | |
CN103150729B (zh) | 一种虚拟视图渲染方法 | |
CN103295229B (zh) | 视频深度信息恢复的全局立体匹配方法 | |
CN108876861B (zh) | 一种地外天体巡视器的立体匹配方法 | |
CN105844692A (zh) | 基于双目立体视觉的三维重建装置、方法、系统及无人机 | |
KR20180035359A (ko) | 평면정보를 이용한 3차원 공간 모델링 및 데이터 경량화 방법 | |
CN112489186B (zh) | 一种自动驾驶双目数据感知方法 | |
CN104537668A (zh) | 一种快速视差图像计算方法及装置 | |
CN102740096A (zh) | 一种基于时空结合的动态场景立体视频匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |