CN103632365A - 一种立体图像视差估计方法 - Google Patents
一种立体图像视差估计方法 Download PDFInfo
- Publication number
- CN103632365A CN103632365A CN201310566038.0A CN201310566038A CN103632365A CN 103632365 A CN103632365 A CN 103632365A CN 201310566038 A CN201310566038 A CN 201310566038A CN 103632365 A CN103632365 A CN 103632365A
- Authority
- CN
- China
- Prior art keywords
- value
- window
- disparity
- summation
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了图像处理领域的一种立体图像视差估计方法。其技术方案是,首先,将左右图像像素点的灰度值经过隶属度函数处理,得到图像像素点的隶属度;其次,根据设定左右图像的视差值计算窗口覆盖下元素的差异值总和公式,计算该窗口覆盖下的元素的差异值的总和,并通过移动窗口和变换左右图像的视差值,最终得到三维矩阵;最后,找到所得的dmax个三维矩阵元素值中的最小值,从而确定最小值所对应的d即为最佳视差,而得到视差图。本发明的有益效果是,与基于SAD的视差估计方法相比,在非遮挡区、全局及视差不连续区状况下,误匹配百分比更小,匹配精度更高。
Description
技术领域
本发明属于图像处理领域,尤其涉及一种立体图像视差估计方法。
背景技术
在立体图像的区域匹配方法中,先把左图像中某一像素点作为中心点,将该点附近区域的像素灰度值进行累加得到一个累加和,在右图像中同样选定一点为中心点,也将其及其附近区域像素点灰度值进行累加求和,将两个累加和做减法运算获得差值,若此差异值小于预先设定的阈值,则认为两中心点为匹配点,两中心点对应的视差即为最佳视差。这种算法对于灰度值的大小不加区分,使得灰度值较小的像素点对匹配的作用降低,造成匹配精度不够。
发明内容
针对背景技术中提到的立体图像的区域匹配方法中视差估计的精度低的问题,本发明提出了一种立体图像视差估计方法。
一种立体图像视差估计方法,其特征在于,所述方法具体包括以下步骤:
步骤1:将左右图像像素点的灰度值I(x,y)分别经过隶属度函数处理,得到图像像素点的隶属度u(x,y);其中x、y为图像像素点的坐标;
步骤2:设定图像像素点隶属度u(x,y)的差异值为-logu(x,y);同时给定绝对差异值计算公式,从而得到绝对差异值矩阵e(x,y);
步骤3:设定左右图像的视差值d=0;给定计算窗口覆盖下元素的差异值总和公式;
步骤4:以绝对差异值矩阵e(x,y)中坐标为(n/2+1,m/2+1)的元素为窗口中心点,用窗口覆盖绝对差异值矩阵e(x,y),利用窗口覆盖下元素的差异值总和公式计算该窗口覆盖下的元素的差异值的总和s(X,Y),将差异值总和s(X,Y)存储到二维矩阵D(X,Y)中;
步骤5:移动窗口,直到计算出绝对差异值矩阵e(x,y)中每个元素为中心点的窗口内的差异值总和;坐标值满足n/2≤X≤H-n/2、m/2≤Y≤W-m/2;
步骤6:将二维矩阵D(X,Y)存储到三维矩阵Dm(X,Y,d)中,在本步骤中d为常数;
步骤7:将视差值d增加1,判断视差值d是否大于给定的两幅图像的最大视差dmax;若否,重复执行步骤4到步骤7;若是,得到最终三维矩阵Dm(H,W,dmax),转到步骤8;
步骤8:在三维矩阵Dm(H,W,dmax)中,对于每个给定的h(0≤h≤H)、w(0≤w≤W),得到d从0到dmax分别对应的三维矩阵Dm(H,W,dmax)的元素值,即为步骤5中计算得到的差异值总和s(X,Y),找到所得的dmax个三维矩阵元素值中的最小值,此最小值所对应的d即为最佳视差,从而得到视差图。
所述隶属度函数为:
其中,I(x,y)为图像像素点的灰度值;u(x,y)为图像像素点的隶属度。
所述绝对差异值计算公式为:
e(x,y)=|logu1(x,d+y)-logu2(x,y)|;
其中,u1(x,d+y)和u2(x,y)分别为左右图像像素点灰度值的隶属度;d为左右图像的视差值,d的初始赋值为0。
所述计算窗口内差异值的总和的公式为:
其中,X(n/2≤X≤H-n/2)、Y(m/2≤Y≤W-m/2)为窗口中心点坐标;H、W分别是原始图像的高度和宽度;n、m为窗口尺寸。
所述窗口尺寸为5×5、7×7或9×9。
本发明的有益效果是,与基于SAD的视差估计方法相比,在非遮挡区、全局及视差不连续区状况下,误匹配百分比更小,匹配精度更高。
附图说明
图1是本发明提供的三维矩阵示意图;
图2是本发明提供差绝对值和算法SAD与本发明算法的视差估计方法视差图对比图。
具体实施方式
下面结合附图,对优选的实施例作详细说明。应该强调的是,下述说明仅仅是示例性的,而不是为了限制本发明的范围及其应用。
一种立体图像视差估计方法,其特征在于,所述方法具体包括以下步骤:
步骤1:将左右图像像素点的灰度值I(x,y)分别经过隶属度函数处理,得到图像像素点的隶属度u(x,y);其中x、y为图像像素点的坐标;
所述隶属度函数为:
其中,I(x,y)为图像像素点的灰度值;u(x,y)为图像像素点的隶属度;
步骤2:设定图像像素点隶属度u(x,y)的差异值为-logu(x,y);同时给定绝对差异值计算公式,从而得到绝对差异值矩阵e(x,y);
所述绝对差异值计算公式为:
e(x,y)=|logu1(x,d+y)-logu2(x,y)|;
其中,u1(x,d+y)和u2(x,y)分别为左右图像像素点灰度值的隶属度;d为左右图像的视差值,d的初始赋值为0;
步骤3:设定左右图像的视差值d=0;给定计算窗口覆盖下元素的差异值总和公式;
所述计算窗口内差异值的总和的公式为:
其中,X(n/2≤X≤H-n/2)、Y(m/2≤Y≤W-m/2)为窗口中心点坐标;H、W分别是原始图像的高度和宽度;n、m为窗口尺寸;
步骤4:以绝对差异值矩阵e(x,y)中坐标为(n/2+1,m/2+1)的元素为窗口中心点,用窗口覆盖绝对差异值矩阵e(x,y),利用窗口覆盖下元素的差异值总和公式计算该窗口覆盖下的元素的差异值的总和s(X,Y),将差异值总和s(X,Y)存储到二维矩阵D(X,Y)中;
步骤5:移动窗口,直到计算出绝对差异值矩阵e(x,y)中每个元素为中心点的窗口内的差异值总和;坐标值满足n/2≤X≤H-n/2、m/2≤Y≤W-m/2;
步骤6:将二维矩阵D(X,Y)存储到三维矩阵Dm(X,Y,d)中,在本步骤中d为常数;
步骤7:将视差值d增加1,判断视差值d是否大于给定的两幅图像的最大视差dmax,若否,重复执行步骤4到步骤7;若是,得到最终三维矩阵Dm(H,W,dmax),转到步骤8;具体过程如图1所示;
步骤8:在三维矩阵Dm(H,W,dmax)中,对于每个给定的h(0≤h≤H)、w(0≤w≤W),得到d从0到dmax分别对应的三维矩阵Dm(H,W,dmax)的元素值,即为步骤5中计算得到的差异值总和s(X,Y),找到所得的dmax个三维矩阵元素值中的最小值,此最小值所对应的d即为最佳视差,从而得到视差图。
图2是本发明提供SAD与本发明算法的视差估计方法视差图对比图。图中第一行为基于SAD的视差估计方法所得结果;第二行为本发明的视差估计方法所得结果;第一列为视差图,第二列为Tsukuba人头像细节处放大图,第三列为误匹配点图,第四列为人头像细节处放大图,图中出现的所有黑色所示均为误匹配点。
表1Tsukuba图像在基于SAD及本发明算法视差估计方法的实验数据对比
表1中实验数据为Tsukuba标准测试图像时在http://vision.middlebury.edu/stereo/网站测试结果,数据表示二种方法下不同状况时,误匹配百分比。
从表中实验数据可得以下结论:本发明提出的基于差异的视差估计方法与基于SAD的视差估计方法相比,本发明算法在非遮挡区、全局及视差不连续区状况下,误匹配百分比更小,匹配精度更高。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应该涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (5)
1.一种立体图像视差估计方法,其特征在于,所述方法具体包括以下步骤:
步骤1:将左右图像像素点的灰度值I(x,y)分别经过隶属度函数处理,得到图像像素点的隶属度u(x,y);其中x、y为图像像素点的坐标;
步骤2:设定图像像素点隶属度u(x,y)的差异值为-logu(x,y);同时给定绝对差异值计算公式,从而得到绝对差异值矩阵e(x,y);
步骤3:设定左右图像的视差值d=0;给定计算窗口覆盖下元素的差异值总和公式;
步骤4:以绝对差异值矩阵e(x,y)中坐标为(n/2+1,m/2+1)的元素为窗口中心点,用窗口覆盖绝对差异值矩阵e(x,y),利用窗口覆盖下元素的差异值总和公式计算该窗口覆盖下的元素的差异值的总和s(X,Y),将差异值总和s(X,Y)存储到二维矩阵D(X,Y)中;
步骤5:移动窗口,直到计算出绝对差异值矩阵e(x,y)中每个元素为中心点的窗口内的差异值总和;坐标值满足n/2≤X≤H-n/2、m/2≤Y≤W-m/2;
步骤6:将二维矩阵D(X,Y)存储到三维矩阵Dm(X,Y,d)中,在本步骤中d为常数;
步骤7:将视差值d增加1,判断视差值d是否大于给定的两幅图像的最大视差dmax,若否,重复执行步骤4到步骤7;若是,得到最终三维矩阵Dm(H,W,dmax),转到步骤8;
步骤8:在三维矩阵Dm(H,W,dmax)中,对于每个给定的h(0≤h≤H)、w(0≤w≤W),得到d从0到dmax分别对应的三维矩阵Dm(H,W,dmax)的元素值,即为步骤5中计算得到的差异值总和s(X,Y),找到所得的dmax个三维矩阵元素值中的最小值,此最小值所对应的d即为最佳视差,从而得到视差图。
2.根据权利要求1所述的方法,其特征在于,所述隶属度函数为:
其中,I(x,y)为图像像素点的灰度值;u(x,y)为图像像素点的隶属度。
3.根据权利要求1所述的方法,其特征在于,所述绝对差异值计算公式为:
e(x,y)=|logu1(x,d+y)-logu2(x,y)|;
其中,u1(x,d+y)和u2(x,y)分别为左右图像像素点灰度值的隶属度;d为左右图像的视差值,d的初始赋值为0。
4.根据权利要求1所述的方法,其特征在于,所述计算窗口内差异值的总和的公式为:
其中,X(n/2≤X≤H-n/2)、Y(m/2≤Y≤W-m/2)为窗口中心点坐标;H、W分别是原始图像的高度和宽度;n、m为窗口尺寸。
5.根据权利要求1所述的方法,其特征在于,所述窗口尺寸为5×5、7×7或9×9。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310566038.0A CN103632365B (zh) | 2013-11-13 | 2013-11-13 | 一种立体图像视差估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310566038.0A CN103632365B (zh) | 2013-11-13 | 2013-11-13 | 一种立体图像视差估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103632365A true CN103632365A (zh) | 2014-03-12 |
CN103632365B CN103632365B (zh) | 2016-08-17 |
Family
ID=50213382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310566038.0A Expired - Fee Related CN103632365B (zh) | 2013-11-13 | 2013-11-13 | 一种立体图像视差估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103632365B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104574404A (zh) * | 2015-01-14 | 2015-04-29 | 宁波大学 | 一种立体图像重定位方法 |
CN110956616A (zh) * | 2019-11-18 | 2020-04-03 | 南京和光智能制造研究院有限公司 | 一种基于立体视觉的目标检测方法及系统 |
CN115100018A (zh) * | 2015-06-10 | 2022-09-23 | 无比视视觉技术有限公司 | 用于处理图像的图像处理器和方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012177166A1 (en) * | 2011-06-24 | 2012-12-27 | Intel Corporation | An efficient approach to estimate disparity map |
CN102930530A (zh) * | 2012-09-26 | 2013-02-13 | 苏州工业职业技术学院 | 一种双视点图像的立体匹配方法 |
US20130071009A1 (en) * | 2011-09-15 | 2013-03-21 | Broadcom Corporation | Depth range adjustment for three-dimensional images |
CN103310446A (zh) * | 2013-06-08 | 2013-09-18 | 哈尔滨工程大学 | 一种基于迭代指导滤波的立体匹配方法 |
-
2013
- 2013-11-13 CN CN201310566038.0A patent/CN103632365B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012177166A1 (en) * | 2011-06-24 | 2012-12-27 | Intel Corporation | An efficient approach to estimate disparity map |
US20130071009A1 (en) * | 2011-09-15 | 2013-03-21 | Broadcom Corporation | Depth range adjustment for three-dimensional images |
CN102930530A (zh) * | 2012-09-26 | 2013-02-13 | 苏州工业职业技术学院 | 一种双视点图像的立体匹配方法 |
CN103310446A (zh) * | 2013-06-08 | 2013-09-18 | 哈尔滨工程大学 | 一种基于迭代指导滤波的立体匹配方法 |
Non-Patent Citations (2)
Title |
---|
MIKEL GALAR 等: "Interval-Valued Fuzzy Sets Applied to Stereo Matching of color Images", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
王逸林: "基于区域匹配算法的双目立体匹配技术的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104574404A (zh) * | 2015-01-14 | 2015-04-29 | 宁波大学 | 一种立体图像重定位方法 |
CN104574404B (zh) * | 2015-01-14 | 2017-09-19 | 宁波大学 | 一种立体图像重定位方法 |
CN115100018A (zh) * | 2015-06-10 | 2022-09-23 | 无比视视觉技术有限公司 | 用于处理图像的图像处理器和方法 |
CN110956616A (zh) * | 2019-11-18 | 2020-04-03 | 南京和光智能制造研究院有限公司 | 一种基于立体视觉的目标检测方法及系统 |
CN110956616B (zh) * | 2019-11-18 | 2023-09-26 | 南京和光智能制造研究院有限公司 | 一种基于立体视觉的目标检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103632365B (zh) | 2016-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11430205B2 (en) | Method and apparatus for detecting salient object in image | |
Revaud et al. | Epicflow: Edge-preserving interpolation of correspondences for optical flow | |
CN103347196B (zh) | 一种基于机器学习的立体图像视觉舒适度评价方法 | |
CN105404888B (zh) | 结合颜色和深度信息的显著性目标检测方法 | |
US8718356B2 (en) | Method and apparatus for 2D to 3D conversion using scene classification and face detection | |
CN102930530B (zh) | 一种双视点图像的立体匹配方法 | |
Phan et al. | Semi-automatic 2D to 3D image conversion using scale-space random walks and a graph cuts based depth prior | |
CN104574366A (zh) | 一种基于单目深度图的视觉显著性区域的提取方法 | |
CN104966286A (zh) | 一种3d视频显著性检测方法 | |
CN103455991A (zh) | 一种多聚焦图像融合方法 | |
CN104680510A (zh) | Radar视差图优化方法、立体匹配视差图优化方法及系统 | |
CN108124489B (zh) | 信息处理方法、装置、云处理设备以及计算机程序产品 | |
KR20110014067A (ko) | 스테레오 컨텐트의 변환 방법 및 시스템 | |
CN105096307A (zh) | 在成对的立体图像中检测物体的方法 | |
CN106997478B (zh) | 基于显著中心先验的rgb-d图像显著目标检测方法 | |
CN104408708A (zh) | 一种基于全局和局部低秩的图像显著目标检测方法 | |
CN104835146A (zh) | 基于深度信息和图切割的立体图像中显著对象分割方法 | |
CN102542541B (zh) | 深度图像后处理的方法 | |
Pushpalwar et al. | Image inpainting approaches-a review | |
CN106530336A (zh) | 基于色彩信息和图割理论的立体匹配算法 | |
Wang et al. | Stereoscopic image retargeting based on 3D saliency detection | |
CN103632365A (zh) | 一种立体图像视差估计方法 | |
CN108924434B (zh) | 一种基于曝光变换的立体高动态范围图像合成方法 | |
CN104243956A (zh) | 一种立体图像视觉显著图提取方法 | |
Srikakulapu et al. | Depth estimation from single image using defocus and texture cues |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160817 Termination date: 20201113 |