CN112200852B - 一种时空混合调制的立体匹配方法及系统 - Google Patents

一种时空混合调制的立体匹配方法及系统 Download PDF

Info

Publication number
CN112200852B
CN112200852B CN202011073873.7A CN202011073873A CN112200852B CN 112200852 B CN112200852 B CN 112200852B CN 202011073873 A CN202011073873 A CN 202011073873A CN 112200852 B CN112200852 B CN 112200852B
Authority
CN
China
Prior art keywords
matching
time
space
point
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011073873.7A
Other languages
English (en)
Other versions
CN112200852A (zh
Inventor
赵宏
樊晨
赵自新
张航瑛
李均祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN202011073873.7A priority Critical patent/CN112200852B/zh
Publication of CN112200852A publication Critical patent/CN112200852A/zh
Application granted granted Critical
Publication of CN112200852B publication Critical patent/CN112200852B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种时空混合调制的立体匹配方法及系统,生成预设的随时间变换的三帧彩色网格图,投影至待测物体表面;第一相机采集图像作为目标图像,第二相机采集图像作为参考图像;选定空间约束下的匹配代价函数;计算目标图像和参考图像在时间、空间窗口共同约束下的匹配代价,遍历整个投影区域得到候选点的匹配代价矩阵;得到第一相机和第二相机采集的两幅图像的视差图;分别计算第一相机采集图像的视差图和第二相机采集图像的视差图;对视差图进行细化处理,得到最终的视差图,完成时空混合调制的立体匹配,本发明在提高立体匹配在弱纹理区域匹配精度的同时,增加了空间窗口选择的灵活性。

Description

一种时空混合调制的立体匹配方法及系统
技术领域
本发明属于立体视觉测量技术领域,具体涉及一种时空混合调制的立体匹配方法及系统。
背景技术
立体匹配是立体视觉测量中最重要的环节之一。其根本是从对同一物体在不同位置拍摄的两幅图像(立体图像对)中寻找三维物体在二维图像中的对应的投影点,并由此生成视差图。得到的视差图再通过三维重构技术可最终得到物体的三维信息。目前,立体视觉测量被广泛地应用在三维测量、场景重建、机器人导航、人机交互等领域。
按照优化理论不同,立体匹配可分为全局匹配算法和局部匹配算法,其中局部匹配算法计算复杂度低,可实现实时匹配。进一步,从匹配基元来看,局部匹配算法可分为区域匹配算法、特征匹配算法和相位匹配算法。其中区域算法可以直接得到稠密视差图,且效率高,但其针对弱纹理的区域、深度不连续区域匹配精度低,计算中支持窗口的大小很难选择;特征匹配法鲁棒性好,且对于深度不连续区域和弱纹理区域匹配效果有所提升,但是其只能得到稀疏视差图,且匹配结果严重依赖特征提取精度;相位匹配算法因其涉及复杂的相位求取过程,复杂度大大增加。
区域匹配算法的缺陷中,存在弱纹理区域匹配精度低主要原因是左右图像差别细微,提供信息较少。存在计算中窗口大小很难选择的问题,这主要是因为存在以下矛盾:当窗口尺寸越小,图像强纹理区域的立体匹配精度越高,但是由于缺少足够的信息,会导致在纹理单一区域内的视差值误差增加;反之,当窗口尺寸越大,能够越有效的消除图像噪声的干扰,但是由于包含的信息较多,会导致视差不连续区域处的边界模糊,而且算法的计算量较大。
目前立体匹配技术针对测量物体的弱纹理区域的匹配准确度较低且计算中支持窗口大小选取困难,技术上缺少一种针对弱纹理区域的高效、精准的匹配方法。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种时空混合调制的立体匹配方法及系统,通过向物体增加多帧彩色编码的特征,在空间窗口约束的基础上再引入时间窗口的约束,提高在弱纹理区域的匹配精度,减小了匹配过程中的不确定性,同时有效地解决代价计算中空间窗口选择困难的问题。
本发明采用以下技术方案:
一种时空混合调制的立体匹配方法,包括以下步骤:
S1、计算机生成预设的随时间变换的三帧彩色网格图,投影至待测物体表面;
S2、通过第一相机和第二相机同步采集步骤S1投影至待测物体表面相应的三帧图像,第一相机采集的图像Il(t1)、Il(t2)、Il(t3)作为目标图像,第二相机采集的图像Ir(t1)、Ir(t2)、Ir(t3)作为参考图像;
S3、采用自适应支持权重算法,得到目标图像和参考图像在空间窗口约束下的匹配代价函数;
S4、计算时间、空间窗口共同约束下的匹配代价函数,遍历整个投影区域得到候选点的匹配代价矩阵,得到目标图像和参考图像的匹配代价;
S5、由步骤S4得到的匹配代价计算目标图像和参考图像的视差图;
S6、对步骤S5得到的视差图进行细化处理,完成时空混合调制的立体匹配,最终得到物体的三维信息。
具体的,步骤S1中,三帧彩色网格图包括:
二级子网格大小为m×n,作为投影网格图的基本单元;二级子网格内同一时刻颜色一致,不同时刻的颜色变换包括红、绿、蓝三种颜色,时间变换为三帧;
一级子网格大小为5m×5n,由5×5的二级子网格组成,作为投影网格图的完整单元;同一一级子网格下的二级子网格的颜色变换在时间内互异,不同一级子网格之间相互独立;
总网格即三帧彩色网格图总体,由一级子网格组成,其大小为5k·m×5k·n,k为整数,作为扩展单元。
进一步的,二级子网格表示为:
Figure BDA0002716089670000031
其中,
Figure BDA0002716089670000032
表示从红、绿、蓝三种颜色中随机抽选三次颜色的排列组合;
一级子网格由二级子网格作为元素组成的集合表示为:
Figure BDA0002716089670000033
具体的,步骤S3中,在只有空间窗口约束下的匹配代价函数如下:
Figure BDA0002716089670000034
其中,p和pd分别表示目标图像和参考图像的一对像差为d的像素点,Np
Figure BDA0002716089670000035
分别代表以p和pd为中心的邻域内的目标窗口和参考窗口,Ip
Figure BDA0002716089670000036
分别代表点p和pd的强度值,
Figure BDA0002716089670000037
表示像素点p和像素点pd的匹配代价。
具体的,步骤S4具体为:
S401、计算匹配点在时间、空间窗口内的权重矩阵w(p(t),q(t));
S402、计算目标窗口和参考窗口内所有像素点的强度差值e(q(t),qd(t));
S403、计算匹配点在时间、空间窗口下的匹配代价E(p,pd);
S404重复步骤S401~S403,从左到右,从上到下依次计算整个投影区域内所有像素点匹配代价,最终得到候选点的匹配代价矩阵E(p,pd)。
进一步的,步骤S403中,时间、空间窗口下的匹配代价E(p,pd)为:
Figure BDA0002716089670000041
其中,Np
Figure BDA0002716089670000043
分别代表以点p和pd为中心的邻域内的目标窗口和参考窗口,q是目标窗口的非中心像素,是参考窗口的非中心像素,T为时间域,T=t1,t2,t3
具体的,步骤S5中,采用赢家通吃的原则分别计算目标图像和参考图像的视差图,具体如下:
Figure BDA0002716089670000042
其中,dp为p点的视差值,Sd={dmin,...,dmax},E(p,pd)为候选点的匹配代价矩阵。
具体的,步骤S6中,细化处理包括左右一致性检查,具体为:
S601、对于目标图像视差图dl和参考图像视差图dr,目标图像中p点,视差值为dl(p);
S602、对应参考图像中p-dl(p)对应匹配点记为pd,在dr中寻找对应点视差值为dr(pd);
S603、若|dl(p)-dr(pd)|>threshold,threshold为人为设定阈值,则标记p点为遮挡点,予以剔除,并选取该点的相邻点的视差值作为对应点的视差值。
本发明的另一个技术方案是,一种时空混合调制的立体匹配系统,包括:
投影模块,由计算机控制,通过投影仪向待测物体施加主动特征;
图像采集模块,由计算机控制通过第一相机和第二相机采集多视角图像;
系统同步模块,由计算机控制,用于成像与投影系统的动态同步;
立体匹配模块,由计算机完成,计算第一相机和第二相机采集多视角图像在基于时、空窗口共同约束下的匹配代价函数,并最终得到视差图。
具体的,立体匹配模块包括:
匹配代价计算子模块,用于计算时、空窗口共同约束下目标图像的代价函数;
视差计算子模块,用于通过目标图像的代价函数计算得到相应的视差图;
视差细化子模块,通过细化处理得到目标图像最终的视差图。
与现有技术相比,本发明至少具有以下有益效果:
本发明一种时空混合调制的立体匹配方法,向待测物体施加时、空调制的主动特征,极大地提高了匹配算法在弱纹理区域的精度,降低了传统方法在弱纹理区域的误匹配几率;相较于传统的局部立体匹配方法,对匹配代价函数同时引入时间和空间窗口的约束,增加了匹配代价函数的控制参数,提高了空间窗口选择的灵活性,解决了空间窗口大小选择困难的问题,主要是在代价计算中,通过增加时间窗口,使空间窗口不必选取过大,避免了代价计算中匹配窗口选取过大导致的在视差不连续区域出现的模糊问题。
进一步的,步骤S1中三帧彩色网格图设置目的在于对待测物施加时间和空间共同调制下的主动特征,在增加弱纹理区域特征的同时引入时间上的约束,降低了传统方法在弱纹理区域的误匹配率且提高了空间窗口的选择灵活性。
进一步的,步骤S1中二级子网格作为上述投影网格中的基本单元,设置目的在于形成所述时空调制中的时间上的变换;更多的,由互异的多个二级子网格组成的一级子网格作为上述投影网格中的完整单元,设置目的在于完整地形成了时空调制中的时间和空间轴上的变换。这样逐级设置的网格,分工明确又相互关联,共同形成了三帧彩色网格图的时空调制特性。
进一步的,步骤S4中细分为小步骤的设置更加清晰地描述了本发明的关键时空调制在计算匹配代价中的逻辑。
进一步的,步骤S403完整、清晰地展示了本发明的时空混合调制的立体匹配方法中的匹配代价的计算公式。
进一步的,对步骤S5中的视差图存在的不准确点、噪声点、误匹配点等问题进行修正,并提高匹配精度。
综上所述,本发明在提高立体匹配在弱纹理区域匹配精度的同时,增加了空间窗口选择的灵活性。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明方法的流程图;
图2为投影三帧彩色网格的示意图;
图3为匹配代价计算中像素点有关时间、空间位置的示意图,其中,(a)为空间窗口下像素点位置示意图;(b)为时间、空间下的立体窗口内像素点位置示意图;
图4为本发明系统的实验测试示意图;
图5为本发明系统的示意图。
其中:1.计算机;2.第一相机;3.投影仪;4.第二相机;5.待测物体;6.投影模块;7.图像采集模块;8.系统同步模块;9.立体匹配模块;10.匹配代价计算子模块;11.视差计算子模块;12.视差细化子模块。
具体实施方式
本发明提供了一种时空混合调制的立体匹配方法及系统,包括向待测物体投影多帧彩色网格图,采集相应的左右视角图像,选定匹配代价函数并计算目标图像在时间、空间窗口共同约束下的匹配代价,计算得到视差图,视差细化处理。目的在于通过投影多帧彩色编码图,对待测物体增加了主动特征,解决了传统立体匹配算法在弱纹理区域匹配精度低的问题。此外,通过对匹配代价函数同时引入时间和空间窗口的约束,提高了空间窗口选择的灵活性,解决了空间窗口选择困难的问题。
请参阅图4和图5,本发明一种时空混合调制的立体匹配系统,包括:
投影模块6,由计算机1控制,通过投影仪3向待测物体5施加主动特征。
图像采集模块7,由计算机1控制通过第一相机2和第二相机4采集多视角图像。
系统同步模块8,由计算机1控制,用于成像与投影系统的动态同步,最大限度去除环境变换的干扰。
立体匹配模块9,由计算机1完成,计算左右图像在基于时、空窗口共同约束下的匹配代价函数,并最终得到视差图。
立体匹配模块9包括如下子模块,
匹配代价计算子模块10,用于计算在时、空窗口共同约束下目标图像的代价函数。
视差计算子模块11,用于通过上述目标图像的代价函数计算得到相应的视差图。
视差细化子模块12,通过所述细化处理得到目标图像最终的视差图。
请参阅图1,本发明一种时空混合调制的立体匹配方法,通过向待测物体加以主动特征(投影随时间变化的彩色网格),并通过第一、第二相机同步采集相应的多帧图像,在匹配代价计算过程中对匹配代价函数同时引入时间、空间窗口内的约束,最终计算并细化处理得到视差图,具体步骤如下:
S1、由计算机生成预设的随时间变换的多帧彩色网格图,并加载到投影仪,投影至待测物体表面;
请参阅图2,三帧彩色网格图由三幅随时间变化的彩色网格图组成,其内部的每一个区块在一定区域内随时间呈现不同的颜色变换,这种变换就是时空调制的含义所在。三帧彩色网格图的构成,从小到大,分为二级子网格(即前句中的每一个区块)、一级子网格(即前句中的一定区域)和总网格(即前句中的三帧彩色网格图)。
最小的网格:
二级子网格,大小为m×n(m、n为像元个数,由人为设定,此处以m=n=5为例)。其作为本发明投影网格图的基本单元,体现了时空调制中时间的变换,即二级子网格内所有像素点颜色保持一致(空间内一致),并随时间而统一变换(时间内变换),可以描述为:
Figure BDA0002716089670000081
其中,W2代表二级子网格,
Figure BDA0002716089670000082
代表二级子网格的区域,p(x,y)代表子网格内任意一点,t代表时间(本发明设定为三帧,即t=t1,t2,t3,以0s,0.05s,0.1s为例),f(p(x,y),t)代表p(x,y)在t时刻的颜色。
用r、g、b分别表示预设的标准红、绿、蓝三种颜色,则p(x,y)在t时刻的颜色为:
Figure BDA0002716089670000091
其中,
Figure BDA0002716089670000092
表示从红、绿、蓝三种随机选一种,可以看到,二级子网格内所有像素点在同一时刻颜色相同。
最终,二级子网格表示为:
Figure BDA0002716089670000093
其中,
Figure BDA0002716089670000094
表示从红、绿、蓝三种颜色中随机抽选三次颜色的排列组合。可以得知,三个时刻内,二级子网格27种变换。因此,时间轴上,二级子网格包含了27种不同的变换。
二级子网格作为基本单元,形成了颜色在时间轴上的变换。更多的,二级子网格之间的关系将在下文一级子网格介绍内阐述。
由二级子网格组成的一级子网格,大小为5m×5n,即5×5(此处,设置一级子网格由5×5的二级子网格组成是由于网格变换为三帧)的二级子网格组成一个一级子网格。其作为本发明投影网格图的完整单元,完全地展示了网格在时间和空间内的变换,即一级子网格内所有二级子网格的颜色随时间而变换(时间内变换),且二级子网格在同一时刻的颜色是互不相关的(空间内变换),总的来说,在时间、空间两个维度下,同一一级子网格内的所有二级子网格是互异的(存在25种不同的变换)。由上述可知,一级子网格和二级子网格并不可简单的描述为函数关系,为了更简单、清楚地展示,下面先以矩阵形式描述:
Figure BDA0002716089670000101
其中,t=t1,t2,t3
将步骤S1中二级子网格表达式代入,可得:
Figure BDA0002716089670000102
这里,二级子网格在时间和空间上的变换由排列组合的形式给出。需要注意的,矩阵中,
Figure BDA0002716089670000103
之间是互异的(即排列组合方式不同),这便是时间、空间维度下,同一一级子网格内所有二级子网格互异性的根源。
上述矩阵清楚的展示了一、二级子网格之间的关系。需要指出,这里矩阵描述只是某一个一级子网格在特定的一种情况下的孤立描述,不具有普遍性,下面将以集合形式对其关系给出更加普遍、准确、精简的描述。
一级子网格可以用由二级子网格作为元素组成的带序的集合表示:
Figure BDA0002716089670000104
其中,<代表集合的序按上文中矩阵形式排列。
进一步,将这种描述扩展到一般形式,
Figure BDA0002716089670000105
这里,集合的形式约束了
Figure BDA0002716089670000106
之间是互异的。需要注意的是,最终一级子网格W1(t)的表示的集合是无序的,这不同于上面矩阵的描述,这表示不同的一级子网格之间是相互独立的,不是重复的。上式即为一级子网格的一般形式。
可以看出,一级子网格作为完整单元,之间具有相互独立性,通过内部二级子网格在时间、空间维度下的变换,完整地展示了时空调制的特性。
由一级子网格构成的总网格,总网格的大小为5k·m×5k·n,k为整数,以k=5为例。其作为本发明投影网格图的扩展单元,目的在于根据实际待测物体及环境状况灵活调整投影网格大小。
S2、通过第一相机和第二相机同步采集相应的多帧图像;
三帧图像具体为:
第一相机三帧图像:Il(t1)、Il(t2)、Il(t3),第二相机三帧图像:Ir(t1)、Ir(t2)、Ir(t3)。
S3、选定匹配代价函数;
一般的,匹配代价函数在只有空间窗口约束下的可写作:
Figure BDA0002716089670000111
其中,p和pd分别表示目标图像和参考图像的一对像差为d的像素点,Np
Figure BDA0002716089670000112
分别代表以p和pd为中心的邻域内的目标窗口和参考窗口,Ip
Figure BDA0002716089670000113
分别代表点p和pd的强度值,
Figure BDA0002716089670000114
表示像素点p和像素点pd的匹配代价。
可以看到,该匹配代价函数通过对目标图像和参考图像加以空间窗口上的约束得到。
以局部立体匹配方法中的经典方法——自适应支持权重算法(Adaptive supportweight,ASW)为例进行介绍。该算法不拘泥于考虑窗口的形状和大小,而是根据窗口内非中心像素与中心像素之间的相关程度作为支持权值来代入代价计算。因此,ASW算法在提升了匹配效果(特别是在图像的轮廓、边缘区域)的同时,匹配效率也得到了足够的保证。
请参阅图3,以5×5的窗口为例,中心像素的支持权重计算公式为:
Figure BDA0002716089670000121
其中,p代表中心目标像素点,q代表窗口内非中心像素点。γc是颜色差异部分的系数(一般为经验值),γp是空间距离部分的系数(典型值为7);Δcpq是p点和q点之间在CIELab颜色空间内的欧式距离,具体的,p点和q点在CIELab颜色空间内的颜色强度值表示为cp=[Lp,ap,bp]和cq=[Lq,aq,bq],其中,L代表亮度,a代表从绿色到红色的分量,b代表从蓝色到黄色的分量,则p点和q点的颜色差异表示如下:
Figure BDA0002716089670000122
Δgpq是p点和q点之间的欧氏距离,p点和q点在二维空间内的坐标可以表示为gp=(xp,yp)和gq=(xq,yq),则p点和q点的空间距离差异可以表示为下式:
Figure BDA0002716089670000123
由上述中心像素的支持权重公式分别计算参考窗口和目标窗口的权重矩阵。
代价函数中,最终支持权重采用的是参考窗口的权重矩阵和目标窗口权重矩阵的乘积得到的矩阵。基于此,最终ASW算法的代价函数表示为:
Figure BDA0002716089670000124
其中,E(p,pd)为像素点p的匹配代价,p和q分别是目标窗口的中心像素和非中心像素,pd和qd分别是参考窗口的中心像素和非中心像素,Np
Figure BDA0002716089670000125
分别代表以点p和pd为中心的邻域内的目标窗口和参考窗口,e(q,qd)为目标窗口和参考窗口中心像素的强度值(RGB颜色空间下)之差如下:
Figure BDA0002716089670000131
其中,Ic(q)和Ic(qd)分别表示q和qd点的强度值(RGB颜色空间下)。
S4、计算时间、空间窗口共同约束下的匹配代价;
时间、空间窗口共同约束下的匹配代价一般形式为:
Figure BDA0002716089670000132
其中,Ip(t)和
Figure BDA0002716089670000134
代表t时刻p和pd的强度值,T代表时间域。
可以看到,不同于步骤S3,时、空窗口共同约束下的匹配代价函数同时受限于时间和空间上图像的变化,计算中约束更多,且支持窗口选择更加灵活。
同样的,ASW算法搜索范围限定为空间窗口内,在加入时间窗口约束后,匹配代价计算中搜索范围扩大到时间、空间下的立体窗口内。以目标图像为第一相机采集图像,参考图像为第二相机采集图像为例。
请参阅图3(b),具体步骤如下:
S401、计算匹配点在时间、空间窗口内的权重矩阵
以匹配点为中心像素的邻域内各个点的支持权重为:
Figure BDA0002716089670000133
其中,t=t1,t2,t3,p(t)代表t时刻的中心目标像素点,q(t)代表t时刻的代表窗口内非中心像素点Δcp(t)q(t)是p(t)点和q(t)点之间在CIELab颜色空间内的欧式距离,Δgp(t)q(t)是p(t)点和q(t)点之间的欧氏距离,具体计算公式和其余参数见步骤S3,此处不再赘述。
S402、计算目标窗口和参考窗口内所有像素点的强度差值
计算公式为:
Figure BDA0002716089670000141
其中,
Figure BDA0002716089670000144
代表t时刻目标图像中q点的强度值(RGB颜色空间下),
Figure BDA0002716089670000145
代表t时刻目标图像中qd点的强度值(RGB颜色空间下)。
S403、计算匹配点在时间、空间窗口下的匹配代价
时间、空间窗口共同约束下的局部匹配代价函数写作:
Figure BDA0002716089670000142
其中,T为时间域,T=t1,t2,t3
S404重复步骤S401~S403,直至遍历整个投影区域
从左到右,从上到下依次计算整个投影区域内所有像素点匹配代价,最终得到候选点的匹配代价矩阵。
S5、计算得出视差图;
采用赢家通吃的原则分别计算目标图像和参考图像的视差图,具体如下:
Figure BDA0002716089670000143
其中,Sd={dmin,...,dmax},即为点p的支持窗口内所有候选点的视差的集合;目标像素点p的视差为邻域内计算匹配代价最小的一点。
S6、通过细化处理得到最终的视差图。
细化处理包括左右一致性检查、亚像素增强等。目的在于对视差图中存在的不准确、噪声点、误匹配点等问题进行修正,并提高匹配精度。
左右一致性检查主要为了剔除算法中因为遮挡和噪声而导致的误匹配点。
遵循两幅视差图中对应匹配点的视差值应当是相同的原则,具体步骤为:
S601、对于目标图像视差图dl和参考图像视差图dr,目标图像中p点,视差值为dl(p);
S602、对应参考图像中p-dl(p)对应匹配点记为pd,在dr中寻找对应点视差值为dr(pd);
S603、若|dl(p)-dr(pd)|>threshold(threshold为人为设定阈值),则标记p点为遮挡点,予以剔除,并选取该点的相邻点(若被判定为非遮挡点)的视差值作为该点视差值。
亚像素增强算法主要为将步骤S5中像素级的视差图提高到亚像素级。这里采用二次曲线拟合法,对于p点的最优视差下的匹配代价值Eop(p,pd),和其左右相邻的两个视差下的代价值Eop(p,pd)和Eop(p,pd)进行二次曲线拟合,最后选取二次曲线的最小值点的视差值作为p点的视差值。
通过本发明提出的时空混合调制的立体匹配方法是立体视觉测量中最重要的一个环节,将得到的视差图再通过三维重构技术可最终得到物体的三维信息。目前,立体视觉测量被广泛地应用在三维测量、场景重建、机器人导航、人机交互等领域。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中的描述和所示的本发明实施例的组件可以通过各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
对本发明的方法以上述实施例为模板做如下扩展:
(1)随着投影仪和工业相机的技术进步,所投影和采集的彩色网格的分辨率将会进一步提高,这样,二级子网格可以进一步精确直到大小为一个像素,以此减小匹配中的不确定性,提高匹配精度。
(2)随着工业相机同步采集和高速采集技术的进步,可实现相机同步地采集极短时间内的多帧图像,这样,采集过程中环境的变化对于本发明的影响进一步减小直至忽略不计,且同时提高了匹配的精度。
综上所述,本发明一种时空混合调制的立体匹配方法及系统,本发明通过向待测物体投影多帧彩色网格图,对待测物体增加了主动特征,解决了传统立体匹配算法在弱纹理区域匹配精度低的问题。此外,通过对匹配代价函数同时引入时间和空间窗口的约束,增加了空间窗口选择的灵活性,解决了立体匹配中空间窗口选择困难的问题。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (7)

1.一种时空混合调制的立体匹配方法,其特征在于,包括以下步骤:
S1、计算机生成预设的随时间变换的三帧彩色网格图,投影至待测物体表面,三帧彩色网格图包括:
二级子网格大小为m×n,作为投影网格图的基本单元;二级子网格内同一时刻颜色一致,不同时刻的颜色变换包括红、绿、蓝三种颜色,时间变换为三帧;
一级子网格大小为5m×5n,由5×5的二级子网格组成,作为投影网格图的完整单元;同一一级子网格下的二级子网格的颜色变换在时间内互异,不同一级子网格之间相互独立;
总网格即三帧彩色网格图总体,由一级子网格组成,其大小为5K·m×5K·n,K为整数,作为扩展单元;
S2、通过第一相机和第二相机同步采集步骤S1投影至待测物体表面相应的三帧图像,第一相机采集的图像Il(t1)、Il(t2)、Il(t3)作为目标图像,第二相机采集的图像Ir(t1)、Ir(t2)、Ir(t3)作为参考图像;
S3、根据ASW算法选定匹配代价函数;
S4、计算时间、空间窗口共同约束下的匹配代价函数,遍历整个投影区域得到候选点的匹配代价矩阵,得到目标图像和参考图像的匹配代价,具体为:
S401、计算匹配点在时间、空间窗口内的权重矩阵w(p(t),q(t));
S402、计算目标窗口和参考窗口内所有像素点的强度差值e(q(t),qd(t));
S403、计算匹配点在时间、空间窗口下的匹配代价E(p,pd),具体如下:
Figure FDA0003553374300000011
其中,w(pd(t),qd(t))为以匹配点为中心像素的邻域内各个点的支持权重,Np和Npd分别代表以点p和pd为中心的邻域内的目标窗口和参考窗口,q是目标窗口的非中心像素,qd是参考窗口的非中心像素,T为时间域,T=t1,t2,t3
S404重复步骤S401~S403,从左到右,从上到下依次计算整个投影区域内所有像素点匹配代价,最终得到候选点的匹配代价矩阵E(p,pd);
S5、由步骤S4得到的匹配代价计算目标图像和参考图像的视差图;
S6、对步骤S5得到的视差图进行细化处理,完成时空混合调制的立体匹配,最终得到物体的三维信息。
2.根据权利要求1所述的时空混合调制的立体匹配方法,其特征在于,步骤S1中,二级子网格表示为:
Figure FDA0003553374300000021
其中,
Figure FDA0003553374300000022
表示从红、绿、蓝三种颜色中随机抽选三次颜色的排列组合;
一级子网格由二级子网格作为元素组成的集合表示为:
Figure FDA0003553374300000023
其中,k为二级子网格数量。
3.根据权利要求1所述的时空混合调制的立体匹配方法,其特征在于,步骤S3中,在只有空间窗口约束下的匹配代价函数如下:
Figure FDA0003553374300000024
其中,p和pd分别表示目标图像和参考图像的一对像差为d的像素点,Np和Npd分别代表以p和pd为中心的邻域内的目标窗口和参考窗口,Ip和Ipd分别代表点p和pd的强度值,e(Ip,Ipd)表示像素点p和像素点pd的匹配代价。
4.根据权利要求1所述的时空混合调制的立体匹配方法,其特征在于,步骤S5中,采用赢家通吃的原则分别计算目标图像和参考图像的视差图,具体如下:
Figure FDA0003553374300000025
其中,dp为p点的视差值,Sd={dmin,...,dmax},E(p,pd)为候选点的匹配代价矩阵。
5.根据权利要求1所述的时空混合调制的立体匹配方法,其特征在于,步骤S6中,细化处理包括左右一致性检查,具体为:
S601、对于目标图像视差图dl和参考图像视差图dr,目标图像中p点,视差值为dl(p);
S602、对应参考图像中p-dl(p)对应匹配点记为pd,在dr中寻找对应点视差值为dr(pd);
S603、若|dl(p)-dr(pd)|>threshold,threshold为人为设定阈值,则标记p点为遮挡点,予以剔除,并选取该点的相邻点的视差值作为对应点的视差值。
6.一种时空混合调制的立体匹配系统,其特征在于,利用权利要求1所述的方法,包括:
投影模块,由计算机控制,通过投影仪向待测物体施加主动特征;
图像采集模块,由计算机控制通过第一相机和第二相机采集多视角图像;
系统同步模块,由计算机控制,用于成像与投影系统的动态同步;
立体匹配模块,由计算机完成,计算第一相机和第二相机采集多视角图像在基于时、空窗口共同约束下的匹配代价函数,并最终得到视差图。
7.根据权利要求6所述的时空混合调制的立体匹配系统,其特征在于,立体匹配模块包括:
匹配代价计算子模块,用于计算时、空窗口共同约束下目标图像的代价函数;
视差计算子模块,用于通过目标图像的代价函数计算得到相应的视差图;
视差细化子模块,通过细化处理得到目标图像最终的视差图。
CN202011073873.7A 2020-10-09 2020-10-09 一种时空混合调制的立体匹配方法及系统 Active CN112200852B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011073873.7A CN112200852B (zh) 2020-10-09 2020-10-09 一种时空混合调制的立体匹配方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011073873.7A CN112200852B (zh) 2020-10-09 2020-10-09 一种时空混合调制的立体匹配方法及系统

Publications (2)

Publication Number Publication Date
CN112200852A CN112200852A (zh) 2021-01-08
CN112200852B true CN112200852B (zh) 2022-05-20

Family

ID=74013182

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011073873.7A Active CN112200852B (zh) 2020-10-09 2020-10-09 一种时空混合调制的立体匹配方法及系统

Country Status (1)

Country Link
CN (1) CN112200852B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113137938B (zh) * 2021-04-13 2023-04-25 思看科技(杭州)股份有限公司 三维扫描系统、方法、计算机设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102572485A (zh) * 2012-02-02 2012-07-11 北京大学 一种自适应加权立体匹配算法、立体显示采集装置及系统
CN106530333A (zh) * 2016-10-10 2017-03-22 天津大学 基于捆绑约束的分级优化立体匹配方法
CN106991693A (zh) * 2017-03-17 2017-07-28 西安电子科技大学 基于模糊支持权重的双目立体匹配方法
CN108682026A (zh) * 2018-03-22 2018-10-19 辽宁工业大学 一种基于多匹配基元融合的双目视觉立体匹配方法
CN108898575A (zh) * 2018-05-15 2018-11-27 华南理工大学 一种新型自适应权重立体匹配方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9111342B2 (en) * 2010-07-07 2015-08-18 Electronics And Telecommunications Research Institute Method of time-efficient stereo matching
US9924196B2 (en) * 2012-05-18 2018-03-20 The Regents Of The University Of California Independent thread video disparity estimation method and codec
CN105513064B (zh) * 2015-12-03 2018-03-20 浙江万里学院 一种基于图像分割和自适应权重的立体匹配方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102572485A (zh) * 2012-02-02 2012-07-11 北京大学 一种自适应加权立体匹配算法、立体显示采集装置及系统
CN106530333A (zh) * 2016-10-10 2017-03-22 天津大学 基于捆绑约束的分级优化立体匹配方法
CN106991693A (zh) * 2017-03-17 2017-07-28 西安电子科技大学 基于模糊支持权重的双目立体匹配方法
CN108682026A (zh) * 2018-03-22 2018-10-19 辽宁工业大学 一种基于多匹配基元融合的双目视觉立体匹配方法
CN108898575A (zh) * 2018-05-15 2018-11-27 华南理工大学 一种新型自适应权重立体匹配方法

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
"Adaptive spatiotemporal similarity measure for a consistent depth maps";Yongho Shin等;《2017 4th International Conference on Computer Applications and Information Processing Technology (CAIPT)》;20180322;第1-4页 *
"Efficient spatio-temporal local stereo matching using information permeability filtering";Cuong Cao Pham等;《2012 19th IEEE International Conference on Image Processing》;20130221;第2965-2968页 *
"Efficient Spatiotemporal Stereo Matching";Nan Guo等;《ACP/IPOC 2013》;20131231;第1-3页 *
"Real-Time Spatiotemporal Stereo Matching Using the Dual-Cross-Bilateral Grid";Christian Richardt等;《ECCV 2010》;20101231;第510-523页 *
"Real-time temporal stereo matching using iterative adaptive support weights";Jedrzej Kowalczuk等;《IEEE International Conference on Electro-Information Technology, EIT 2013》;20131017;第1-6页 *
"Stereo Matching Using Fusion of Spatial Weight Variable Window and Adaptive Support Weight";Chang Wook Ahn等;《International Journal of Computer and Electrical Engineering》;20140630;第211-217页 *
"基于双目视觉的自适应匹配优化方法";黄超等;《计算机工程》;20180815;第263-267页 *
"基于颜色内相关和自适应支撑权重的立体匹配算法";龚文彪等;《中国激光》;20140831;第1-6页 *

Also Published As

Publication number Publication date
CN112200852A (zh) 2021-01-08

Similar Documents

Publication Publication Date Title
CN108898575B (zh) 一种新型自适应权重立体匹配方法
CN109360235B (zh) 一种基于光场数据的混合深度估计方法
TWI455062B (zh) 三維視訊內容產生方法
RU2382406C1 (ru) Способ улучшения карты диспарантности и устройство для реализации способа
CN111047709B (zh) 一种双目视觉裸眼3d图像生成方法
CN102665086B (zh) 利用基于区域的局部立体匹配获取视差的方法
CN102034265B (zh) 一种三维视图获取方法
CN106023230B (zh) 一种适合变形图像的稠密匹配方法
CN108648264A (zh) 基于运动恢复的水下场景重建方法及存储介质
CN106875437A (zh) 一种面向rgbd三维重建的关键帧提取方法
CN109242834A (zh) 一种基于卷积神经网络的无参考立体图像质量评价方法
CN109769109A (zh) 基于虚拟视点合成绘制三维物体的方法和系统
CN106600632A (zh) 一种改进匹配代价聚合的立体匹配算法
KR101454780B1 (ko) 3d 모델의 텍스쳐 생성 방법 및 장치
CN108090877A (zh) 一种基于图像序列的rgb-d相机深度图像修复方法
CN115601406A (zh) 基于融合代价计算和加权引导滤波的局部立体匹配方法
CN110378967B (zh) 一种光栅投射与立体视觉结合的虚拟靶标标定方法
CN104038752B (zh) 基于三维高斯混合模型的多视点视频直方图颜色校正
CN112200852B (zh) 一种时空混合调制的立体匹配方法及系统
KR20170025214A (ko) 다시점 깊이맵 생성 방법
CN110211168A (zh) 一种基于改进匹配代价的分段树视差图获取方法
CN114120012A (zh) 一种基于多特征融合和树形结构代价聚合的立体匹配方法
CN112686865A (zh) 一种3d视图辅助检测方法、系统、装置及存储介质
CN109218706B (zh) 一种由单张图像生成立体视觉图像的方法
CN116801115A (zh) 一种稀疏阵列相机部署方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant