CN112150519A - 一种对光照不敏感的局部立体匹配方法 - Google Patents
一种对光照不敏感的局部立体匹配方法 Download PDFInfo
- Publication number
- CN112150519A CN112150519A CN202010797807.8A CN202010797807A CN112150519A CN 112150519 A CN112150519 A CN 112150519A CN 202010797807 A CN202010797807 A CN 202010797807A CN 112150519 A CN112150519 A CN 112150519A
- Authority
- CN
- China
- Prior art keywords
- cost
- edge
- parallax
- points
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000005286 illumination Methods 0.000 title claims abstract description 23
- 238000004364 calculation method Methods 0.000 claims abstract description 54
- 230000002776 aggregation Effects 0.000 claims abstract description 34
- 238000004220 aggregation Methods 0.000 claims abstract description 34
- 238000001914 filtration Methods 0.000 claims abstract description 20
- 238000001514 detection method Methods 0.000 claims abstract description 10
- 238000006116 polymerization reaction Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 5
- 238000003708 edge detection Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 208000006440 Open Bite Diseases 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 239000004576 sand Substances 0.000 claims description 3
- 230000002159 abnormal effect Effects 0.000 claims description 2
- 230000004931 aggregating effect Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 description 9
- 230000009466 transformation Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000379 polymerizing effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开感的局部立体匹配方法,涉及光照不敏感的局部立体匹配技术领域。本方法包括算、代价聚合、视差计算和视差精化四个阶段;代价计算阶段:融合梯度信息和HSV颜色空间的像素强度信息作为初始代价,并采用边缘加权的方法对边缘信息相似点的代价进行加权;代价聚合阶段:在跨尺度模型下使用引导滤波进行代价聚合;视差计算阶段:采用WTA算法进行视差选择;视差精化阶段:通过左右一致性检测,空洞填充和加权中值滤波的方法进行视差精化处理。
Description
技术领域
本发明涉及照不敏感的局部立体匹配技术领域,具体是一种对光照不敏感的局部立体匹配方法。
背景技术
立体匹配旨在寻找同一场景下两幅或多幅图中对应点,进行场景深度信息估计的过程,是计算机视觉和机器视觉的重要组成部分。传统立体匹配可分为全局立体匹配方法和局部立体匹配方法。立体匹配的过程可归纳为代价计算、代价聚合、视差计算和视差精化四个步骤。
全局立体匹配算法通常跳过代价聚合步骤,通过最小化能量函数来选择最佳视差值,能够获得较精准的视差图,常见的全局立体匹配算法有:置信度传播匹配算法、图割匹配算法、动态规划匹配算法、马尔可夫随机场匹配算法等。但由于全局立体匹配算法复杂度较高,在解决现实生活中的立体匹配问题时耗时较长,具有一定的局限性。局部立体匹配算法通过构建窗口,计算窗口内像素代价进行聚合,并采用赢者通吃(WTA)算法得到视差图,计算速度快,便于实现,具有远大的发展前景。
大部分立体匹配算法的代价计算是基于像素灰度值的,当图像受到光照影响出现辐射度失真时,这些算法的匹配精度会大打折扣。对此,Hirshmuller等人提出了Census算法。为了提高Census变换的抗噪性,Chang等提出了Mini-Census算法,对窗口内固定的六个点进行Census变换。刘建国等利用窗口内像素均值信息代替中心像素,并设置容错阈值。但Census及其变体算法在进行代价计算时忽略了图像的像素强度信息。
局部立体匹配过程中,处在边缘位置的像素点大多是视差不连续的,其所在的聚合窗口背景发生了偏移,容易造成误匹配。为了减少这种情况,Yoon等提出自适应权重的立体匹配算法,根据邻域像素和中心像素的颜色和几何相似性调整权重。Mattoccia等引入双边滤波进行代价聚合,具有良好的边缘保持效果。但以上两种方法计算复杂度随内核增大而上升,实际应用中耗时较长。Hosni等把引导滤波应用到窗口聚合上,其计算复杂度与内核大小无关。Yang利用最小生成树进行聚合,在较低的计算复杂度下取得了稳健的效果。传统算法都是在最精细尺度下进行的,忽视了尺度间的信息,Zhang等考虑到多尺度交互,将现有的方法进行归纳融合,设计了统一的代价聚合模型。以上算法一定程度上减少了边缘模糊现象,提升了匹配精度,但对图像的边缘信息利用不够充分,在对边缘点的代价计算中缺乏区分度,容易导致视差选择错误。
(2)总结上述方法,目前同类方法的主要缺陷:
第一,大部分立体匹配算法的代价计算是基于灰度图或者RGB颜色空间的像素强度,当图像受到光照影响出现辐射度失真时,这些算法的匹配精度会大打折扣。对于灰度图,其丢失了图像颜色信息,对彩色图像区分能力不强;对于RGB颜色空间,彩色图像像素点在R、G、B颜色通道上相互影响,信息冗余且可靠性低。当外部环境光照发生变化时,匹配精度会受到影响而降低。
第二,现有算法对图像的边缘信息利用不够充分,在对边缘点的代价计算中缺乏区分度,容易导致视差选择错误。
第三,传统算法大多是在最精细尺度下进行的,忽视了尺度间的信息。往往在纹理丰富区域表现较好,而在低纹理区表现不理想。
发明内容
为了克服上述现有技术的缺点,本发明提供一种对光照不敏感的局部立体匹配方法。
本发明是以如下技术方案实现的:一种光照不敏感的局部立体匹配方法,包括代价计算、代价聚合、视差计算和视差精化四个阶段;
代价计算阶段:融合梯度信息和HSV颜色空间的像素强度信息作为初始代价,并采用边缘加权的方法对边缘信息相似点的代价进行加权;
代价聚合阶段:在跨尺度模型下使用引导滤波进行代价聚合;
视差计算阶段:采用WTA算法进行视差选择;
视差精化阶段:通过左右一致性检测,空洞填充和加权中值滤波的方法进行视差精化处理。
优选的,代价计算阶段包括初始代价计算和边缘加权的代价计算,具体如下:
a、初始代价计算采用颜色强度和梯度信息相结合的代价计算方法,在计算颜色强度时,采用HSV颜色空间,RGB转换到HSV颜色空间公式如下:
对于两幅图像I和I′,匹配代价计算函数可表示为:
C=f(I,I′) (2)
视差为d时点i的代价表示为:
C(i,d)=(1-α)·min[CAD,τc]+α·min[CGRAD,τg], (3)
式中,α是平衡因子,用于调节颜色强度和梯度对于代价的贡献比例,τc和τg分别为颜色绝对值差和梯度绝对值差的截断阈值,用来降低异常值的影响;CAD和CGRAD分别是颜色强度绝对值差和梯度强度绝对值差,可表示为:
I(i)和I′(id)分别表示参考图和目标图的颜色强度,和表示参考图和目标图沿x轴方向的梯度;id表示目标图上坐标点(xi-d,yi);下标H、S分别表示H通道和S通道;β表示不同通道对代价的贡献值;
b、边缘加权的代价计算方法
对立体匹配图形对采用Canny算法进行边缘检测,得到包含边缘信息的二值化图像;对边缘图像进行二进制编码,以像素i为中心,r为半径选择一个矩形窗口N(i),遍历该窗口,对边缘点和非边缘点分别用1和0赋值:
统计以像素i为中心的窗口内边缘点的数量nE(i),并将窗口内所有点映射为一个比特串sE(i),用于保存边缘结构信息:
根据边缘的数量和结构信息,定义参考图和目标图的边缘代价函数表示为:
cn(i,d)=|nE(i)-nE′(id)|, (8)
其中,cn(i,d)表示像素点i和id所在邻域内边缘点数量差值,cn(i,d)越小,以i和id两点为中心的矩形窗内边缘点数量越接近,cs(i,d)表示点i和id二进制编码的汉明距离,cs(i,d)越小,则两点边缘结构越相似;
当像素点处于弱纹理或无纹理区域时,边缘点数量少,结构差异较小,边缘信息缺乏鲁棒性,对于这部分点不采取加权:
式中,C′(i,d)表示经过边缘加权后像素点i在视差d下的匹配代价,T表示边缘数量限制阈值,λ表示边缘加权系数,λ选择策略如下:
其中,k1,k2是奖励系数,0<k2<k1<1,τn和τs分别是数量容错阈值和结构容错阈值,对于边缘点数量差值小于τn的两点,认为是“相似点”,将该点初始代价乘以奖励系数k1获得较小的代价值,对于边缘数量差值小于τn且边缘结构差值小于τs的两点,认为是“强相似点”,该点初始代价乘以奖励系数k2获得更小的代价值。
优选的,代价聚合阶段:使用跨尺度聚合的方法,对原始图像对进行高斯下采样,分别计算各个尺度的匹配代价,利用多尺度聚合模型进行聚合,并引入二范数正则化项,以保证不同尺度下同一像素代价的一致性,跨尺度空间聚合模型表示为:
其中,s∈{0,1,...,S}表示不同尺度,是归一化常量,是在s尺度下像素点i的邻域窗口,是正则化项,用来协调各个尺度之间的关系,λ表示正则化因子,λ越大,表示各尺度之间的约束关系越强,Ks(is,js)表示相似核,用来衡量is和js之间的相似度,本文选择计算量与窗口大小无关,且边缘保持较好的引导滤波[13]作为相似核函数,其表达式为:
式中,q为输出图像,I为引导图像,ak和bk是以像素k为中心时的不变系数,ωk是以k为中心的矩形窗口。
优选的,视差计算阶段采用Winner-Takes-All算法进行视差选择,得到初始视差:
优选的,在视差精化阶段对得到的初始视差图进行左右一致性检测、空洞填充和加权中值滤波处理;
首先,采用左右一致性检测:
|dL(i)-dR[i-dL(i)]|<δ0, (17)
其中dL(i)表示i点在左视图中的视差值,dR[i-dL(i)]表示i点在右视图中的对应点的视差值;阈值δ0一般设为1,即i不满足左右视差值相等,则被标记为遮挡点;对于遮挡点,需要进行填充来获得合理的视差值;对于某一遮挡点i′,分别沿扫描线向左和向右寻找第一个非遮挡点,记为i′L和i′R,并将其中较小的视差值赋给i′:
d(i′)=min[d(i′L),d(i′R)]; (18)
最后,采用加权中值滤波对得到的视差图进行平滑处理,生成最终视差图。
本发明有益效果:
第一,代价计算阶段采用HSV颜色空间进行像素强度计算,提取图像中的有效颜色信息并舍弃易受光照影响的信息,既降低了特征维度提高了运算速率,又增强了对光照变化的鲁棒性。
第二,充分利用图像中物体边缘信息,根据边缘点的数量和结构信息提出一种边缘相似度测量方法,并对满足约束条件的点进行两种策略的“奖励”加权,提高目标图和参考图中对应点的辨识度。
第三,引入跨尺度聚合模型,在多个尺度下分别进行代价计算,在纹理丰富和低纹理区域都有较好的匹配精度。
附图说明
图1是本发明流程框图。
具体实施方式
如图1所示,本部分按照立体匹配算法四个步骤进行论述,分别是:代价计算、代价聚合、视差计算和视差精化。在代价计算阶段,融合梯度信息和HSV颜色空间的像素强度信息作为初始代价,并采用边缘加权的方法对边缘信息相似点的代价进行加权,聚合阶段,在跨尺度模型下使用引导滤波进行代价聚合。采用WTA算法进行视差选择,最后通过左右一致性检测,空洞填充和加权中值滤波的方法进行视差精化处理。流程图和具体步骤如下:
(1)代价计算
a、初始代价计算
本发明采用目前较常用的颜色强度和梯度信息相结合的代价计算方法,在计算颜色强度时,采用HSV颜色空间。RGB转换到HSV颜色空间公式如下:
V=max (1)
对于两幅图像I和I′,匹配代价计算函数可表示为:
C=f(I,I′)。 (2)
视差为d时点i的代价表示为:
C(i,d)=(1-α)·min[CAD,τc]+α·min[CGRAD,τg], (3)
式中,α是平衡因子,用于调节颜色强度和梯度对于代价的贡献比例,τc和τg分别为颜色绝对值差和梯度绝对值差的截断阈值,用来降低异常值的影响。CAD和CGRAD分别是颜色强度绝对值差和梯度强度绝对值差,可表示为:
CAD|(i,d)=|β[IH(i)-I′H(id)]+(1-β)[IS(i)-IS′(id)]|
I(i)和I′(id)分别表示参考图和目标图的颜色强度,和表示参考图和目标图沿x轴方向的梯度。id表示目标图上坐标点(xi-d,yi)。下标H、S分别表示H通道和S通道。β表示不同通道对代价的贡献值,由于V通道易受光照因素影响,因此舍弃V通道上的信息不仅可以降低算法计算复杂度,而且增强图像对光照因素影响的鲁棒性。
在进行初始代价计算时,将图像从RGB颜色空间转换到独立性强且鲁棒性较好的HSV颜色空间,提取H、S通道的像素强度进行代价计算,舍弃易受光照影响的V通道信息,降低算法计算复杂度,同时减少受光照强度变化的影响。结合像素间梯度信息作为初始代价,进一步增强图像对光照因素影响的鲁棒性。
b、边缘加权的代价计算方法
本发明对立体匹配图形对采用Canny算法进行边缘检测,得到包含边缘信息的二值化图像。对边缘图像进行二进制编码,以像素i为中心,r为半径选择一个矩形窗口N(i),遍历该窗口,对边缘点和非边缘点分别用1和0赋值:
统计以像素i为中心的窗口内边缘点的数量nE(i),并将窗口内所有点映射为一个比特串sE(i),用于保存边缘结构信息:
边缘变换示意图
根据边缘的数量和结构信息,定义参考图和目标图的边缘代价函数表示为:
cn(i,d)=|nE(i)-nE′(id)|, (8)
其中,cn(i,d)表示像素点i和id所在邻域内边缘点数量差值,cn(i,d)越小,以i和id两点为中心的矩形窗内边缘点数量越接近。cs(i,d)表示点i和id二进制编码的汉明距离,cs(i,d)越小,则两点边缘结构越相似。传统算法在初始代价计算时,边缘部分的点没有被有效区分,聚合过程中,由于背景发生了偏移,导致视差选择错误。为了增加边缘处匹配点的区分度,应给予边缘相似度高的匹配点更小的匹配代价,从而保证在视差选择过程中获得正确的视差值。但由于相机偏移、光照、噪声等因素的影响,参考图和目标图对应点的边缘图像往往存在微小差异,实验证明,直接将每个点的边缘信息融合到初始代价计算中对匹配精度提升有限。因此,本发明采取“奖励”加权的方法,仅对满足约束条件的代价进行加权处理。
当像素点处于弱纹理或无纹理区域时,边缘点数量少,结构差异较小,边缘信息缺乏鲁棒性,对于这部分点不采取加权:
式中,C′(i,d)表示经过边缘加权后像素点i在视差d下的匹配代价,T表示边缘数量限制阈值,λ表示边缘加权系数,λ选择策略如下:
其中,k1,k2是奖励系数,0<k2<k1<1。τn和τs分别是数量容错阈值和结构容错阈值。即对于边缘点数量差值小于τn的两点,认为是“相似点”,将该点初始代价乘以奖励系数k1获得较小的代价值,对于边缘数量差值小于τn且边缘结构差值小于τs的两点,认为是“强相似点”,该点初始代价乘以奖励系数k2获得更小的代价值。
(2)代价聚合
代价聚合是立体匹配中关键的一步,大部分聚合过程可以看做是对代价体进行滤波的过程。传统的代价聚合是在最精细尺度下进行的,往往在纹理丰富区域表现较好,而在低纹理区表现不理想。本发明使用跨尺度聚合的方法,对原始图像对进行高斯下采样,分别计算各个尺度的匹配代价,利用多尺度聚合模型进行聚合,并引入二范数正则化项,以保证不同尺度下同一像素代价的一致性。跨尺度空间聚合模型表示为:
其中,s∈{0,1,...,S}表示不同尺度,是归一化常量,是在s尺度下像素点i的邻域窗口,是正则化项,用来协调各个尺度之间的关系,λ表示正则化因子,λ越大,表示各尺度之间的约束关系越强。Ks(is,js)表示相似核,用来衡量is和js之间的相似度,本文选择计算量与窗口大小无关,且边缘保持较好的引导滤波[13]作为相似核函数,其表达式为:
式中,q为输出图像,I为引导图像,ak和bk是以像素k为中心时的不变系数,ωk是以k为中心的矩形窗口。
针对图像中物体边缘易出现误匹配的问题,利用Canny算子进行边缘检测,统计所得边缘图像的数量和结构信息,为边缘信息近似的初始代价提供两种策略的“奖励”加权,增强了相似点的辨识度,提高了匹配精度。将所得到的代价信息带入多尺度模型,分别计算各个尺度的匹配代价,利用多尺度聚合模型进行聚合,并引入二范数正则化项,以保证不同尺度下同一像素代价的一致性。
(3)视差计算和视差精化
视差计算阶段,使用Winner-Takes-All算法进行视差选择,得到初始视差:
在视差精化阶段,为了进一步降低算法的误匹配率,对得到的初始视差图进行左右一致性检测、空洞填充和加权中值滤波处理。
首先,采用左右一致性检测:
|dL(i)-dR[i-dL(i)]|<δ0, (17)
其中dL(i)表示i点在左视图中的视差值,dR[i-dL(i)]表示i点在右视图中的对应点的视差值。阈值δ0一般设为1,即i不满足左右视差值相等,则被标记为遮挡点。对于遮挡点,需要进行填充来获得合理的视差值。对于某一遮挡点i′,分别沿扫描线向左和向右寻找第一个非遮挡点,记为i′L和i′R,并将其中较小的视差值赋给i′:
d(i′)=min[d(i′L),d(i′R)]。 (18)
最后,采用加权中值滤波对得到的视差图进行平滑处理,生成最终视差图。
将所得到的代价信息带入多尺度模型,分别计算各个尺度的匹配代价,利用多尺度聚合模型进行聚合,并引入二范数正则化项,以保证不同尺度下同一像素代价的一致性。
第一,针对像素强度信息易受光照因素影响的问题,本发明对图像彩色信息进行提取并编码。将图像RGB颜色空间转换到独立性强且鲁棒性较好的HSV颜色空间,提取H、S通道信息,分别进行代价计算并结合,舍弃最易受光照影响的V通道信息。
第二,针对现有算法对图像的边缘信息利用不够充分,在对边缘点的代价计算中缺乏区分度的问题,本发明提出一种基于边缘加权的跨尺度局部立体匹配算法,在代价计算时,利利用Canny算子进行边缘检测,统计所得边缘图像的数量和结构信息,为边缘信息近似的初始代价提供两种策略的“奖励”加权,增强了相似点的辨识度,提高了匹配精度。
第三,针对传统算法忽视了尺度间的信息的问题,本发明在代价聚合阶段引入跨尺度聚合模型,对原始图像对进行高斯下采样,分别计算各个尺度的匹配代价,利用多尺度聚合模型进行聚合,并引入二范数正则化项,以保证不同尺度下同一像素代价的一致性。
Claims (5)
1.一种光照不敏感的局部立体匹配方法,其特征在于:包括代价计算、代价聚合、视差计算和视差精化四个阶段;
代价计算阶段:融合梯度信息和HSV颜色空间的像素强度信息作为初始代价,并采用边缘加权的方法对边缘信息相似点的代价进行加权;
代价聚合阶段:在跨尺度模型下使用引导滤波进行代价聚合;
视差计算阶段:采用WTA算法进行视差选择;
视差精化阶段:通过左右一致性检测,空洞填充和加权中值滤波的方法进行视差精化处理。
2.根据权利要求1所述的一种光照不敏感的局部立体匹配方法,其特征在于:代价计算阶段包括初始代价计算和边缘加权的代价计算,具体如下:a、初始代价计算采用颜色强度和梯度信息相结合的代价计算方法,在计算颜色强度时,采用HSV颜色空间,RGB转换到HSV颜色空间公式如下:
对于两幅图像I和I′,匹配代价计算函数可表示为:
C=f(I,I′) (2)
视差为d时点i的代价表示为:
C(i,d)=(1-α)·min[CAD,τc]+α·min[CGRAD,τg], (3)
式中,α是平衡因子,用于调节颜色强度和梯度对于代价的贡献比例,τc和τg分别为颜色绝对值差和梯度绝对值差的截断阈值,用来降低异常值的影响;CAD和CGRAD分别是颜色强度绝对值差和梯度强度绝对值差,可表示为:
I(i)和I′(id)分别表示参考图和目标图的颜色强度,和表示参考图和目标图沿x轴方向的梯度;id表示目标图上坐标点(xi-d,yi);下标H、S分别表示H通道和S通道;β表示不同通道对代价的贡献值;
b、边缘加权的代价计算方法
对立体匹配图形对采用Canny算法进行边缘检测,得到包含边缘信息的二值化图像;对边缘图像进行二进制编码,以像素i为中心,r为半径选择一个矩形窗口N(i),遍历该窗口,对边缘点和非边缘点分别用1和0赋值:
统计以像素i为中心的窗口内边缘点的数量nE(i),并将窗口内所有点映射为一个比特串sE(i),用于保存边缘结构信息:
根据边缘的数量和结构信息,定义参考图和目标图的边缘代价函数表示为:
cn(i,d)=|nE(i)-nE′(id)|, (8)
其中,cn(i,d)表示像素点i和id所在邻域内边缘点数量差值,cn(i,d)越小,以i和id两点为中心的矩形窗内边缘点数量越接近,cs(i,d)表示点i和id二进制编码的汉明距离,cs(i,d)越小,则两点边缘结构越相似;
当像素点处于弱纹理或无纹理区域时,边缘点数量少,结构差异较小,边缘信息缺乏鲁棒性,对于这部分点不采取加权:
式中,C′(i,d)表示经过边缘加权后像素点i在视差d下的匹配代价,T表示边缘数量限制阈值,λ表示边缘加权系数,λ选择策略如下:
其中,k1,k2是奖励系数,0<k2<k1<1,τn和τs分别是数量容错阈值和结构容错阈值,对于边缘点数量差值小于τn的两点,认为是“相似点”,将该点初始代价乘以奖励系数k1获得较小的代价值,对于边缘数量差值小于τn且边缘结构差值小于τs的两点,认为是“强相似点”,该点初始代价乘以奖励系数k2获得更小的代价值。
3.根据权利要求1所述的一种光照不敏感的局部立体匹配方法,其特征在于:代价聚合阶段:使用跨尺度聚合的方法,对原始图像对进行高斯下采样,分别计算各个尺度的匹配代价,利用多尺度聚合模型进行聚合,并引入二范数正则化项,以保证不同尺度下同一像素代价的一致性,跨尺度空间聚合模型表示为:
其中,s∈{0,1,...,S}表示不同尺度,是归一化常量,是在s尺度下像素点i的邻域窗口,是正则化项,用来协调各个尺度之间的关系,λ表示正则化因子,λ越大,表示各尺度之间的约束关系越强,Ks(is,js)表示相似核,用来衡量is和js之间的相似度,本文选择计算量与窗口大小无关,且边缘保持较好的引导滤波[13]作为相似核函数,其表达式为:
式中,q为输出图像,I为引导图像,ak和bk是以像素k为中心时的不变系数,ωk是以k为中心的矩形窗口。
5.根据权利要求4所述的一种光照不敏感的局部立体匹配方法,其特征在于:在视差精化阶段对得到的初始视差图进行左右一致性检测、空洞填充和加权中值滤波处理;
首先,采用左右一致性检测:
|dL(i)-dR[i-dL(i)]|<δ0, (17)
其中dL(i)表示i点在左视图中的视差值,dR[i-dL(i)]表示i点在右视图中的对应点的视差值;阈值δ0一般设为1,即i不满足左右视差值相等,则被标记为遮挡点;对于遮挡点,需要进行填充来获得合理的视差值;对于某一遮挡点i′,分别沿扫描线向左和向右寻找第一个非遮挡点,记为i′L和i′R,并将其中较小的视差值赋给i′:
d(i′)=min[d(i′L),d(i′R)]; (18)
最后,采用加权中值滤波对得到的视差图进行平滑处理,生成最终视差图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010797807.8A CN112150519A (zh) | 2020-08-10 | 2020-08-10 | 一种对光照不敏感的局部立体匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010797807.8A CN112150519A (zh) | 2020-08-10 | 2020-08-10 | 一种对光照不敏感的局部立体匹配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112150519A true CN112150519A (zh) | 2020-12-29 |
Family
ID=73888746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010797807.8A Pending CN112150519A (zh) | 2020-08-10 | 2020-08-10 | 一种对光照不敏感的局部立体匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112150519A (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101622344B1 (ko) * | 2014-12-16 | 2016-05-19 | 경북대학교 산학협력단 | 적응적 영역 가중치가 적용된 센서스 변환 기반 스테레오 정합을 통한 시차 계산 방법 및 그 시스템 |
CN109146946A (zh) * | 2018-08-29 | 2019-01-04 | 河海大学常州校区 | 一种图像非局部立体匹配方法 |
-
2020
- 2020-08-10 CN CN202010797807.8A patent/CN112150519A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101622344B1 (ko) * | 2014-12-16 | 2016-05-19 | 경북대학교 산학협력단 | 적응적 영역 가중치가 적용된 센서스 변환 기반 스테레오 정합을 통한 시차 계산 방법 및 그 시스템 |
CN109146946A (zh) * | 2018-08-29 | 2019-01-04 | 河海大学常州校区 | 一种图像非局部立体匹配方法 |
Non-Patent Citations (5)
Title |
---|
于舒春等: "立体匹配算法分阶段测试平台", 《计算机工程》, vol. 33, no. 10, 31 May 2007 (2007-05-31), pages 7 - 9 * |
李公法 等: "《机器人灵巧手的人机交互技术及其稳定控制》", 31 July 2020, 华中科技大学出版社, pages: 14 * |
汤春明 等: "基于跨尺度代价聚合的改进立体匹配算法", 《计算机工程》, vol. 42, no. 11, 15 November 2016 (2016-11-15), pages 272 - 276 * |
程德强 等: "基于边缘加权的跨尺度局部立体匹配算法", 《激光与光电子学进展》, vol. 56, no. 21, 30 November 2019 (2019-11-30), pages 156 - 164 * |
苏修 等: "基于HSV颜色空间的自适应窗口局部匹配算法", 《激光与光电子学进展》, vol. 55, no. 03, 31 March 2018 (2018-03-31), pages 287 - 294 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106780442B (zh) | 一种立体匹配方法及系统 | |
CN103226821B (zh) | 基于视差图像素分类校正优化的立体匹配方法 | |
CN107220997B (zh) | 一种立体匹配方法及系统 | |
CN111833393A (zh) | 一种基于边缘信息的双目立体匹配方法 | |
CN111667506B (zh) | 一种基于orb特征点的运动估计方法 | |
CN109034017A (zh) | 头部姿态估计方法及机器可读存储介质 | |
CN104200495A (zh) | 一种视频监控中的多目标跟踪方法 | |
CN102982334B (zh) | 基于目标边缘特征与灰度相似性的稀疏视差获取方法 | |
CN106991686B (zh) | 一种基于超像素光流场的水平集轮廓跟踪方法 | |
CN113763269B (zh) | 一种用于双目图像的立体匹配方法 | |
CN108229500A (zh) | 一种基于函数拟合的sift误匹配点剔除法 | |
CN111009005A (zh) | 几何信息与光度信息相结合的场景分类点云粗配准方法 | |
CN112364881B (zh) | 一种进阶采样一致性图像匹配方法 | |
CN110009670A (zh) | 基于fast特征提取和piifd特征描述的异源图像配准方法 | |
CN106683125A (zh) | 一种基于2d/3d模态切换的rgb‑d图像配准方法 | |
CN111415305A (zh) | 恢复三维场景的方法、计算机可读存储介质及无人机 | |
CN111325778A (zh) | 基于窗口互相关信息的改进Census立体匹配算法 | |
Mehltretter et al. | Aleatoric uncertainty estimation for dense stereo matching via CNN-based cost volume analysis | |
CN110910497B (zh) | 实现增强现实地图的方法和系统 | |
CN115880683B (zh) | 一种基于深度学习的城市内涝积水智能水位检测方法 | |
CN112150519A (zh) | 一种对光照不敏感的局部立体匹配方法 | |
CN115049676A (zh) | 一种基于密集分组空洞卷积和多尺度代价聚合的双目视觉立体匹配方法 | |
CN113674340A (zh) | 一种基于路标点的双目视觉导航方法与装置 | |
Liu et al. | Semiglobal Stereo Matching Algorithm Based on Improved Census Transformation | |
Zhang et al. | Insights into local stereo matching: Evaluation of disparity refinement approaches |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |