CN101976455A - 一种基于立体匹配的彩色图像三维重建方法 - Google Patents

一种基于立体匹配的彩色图像三维重建方法 Download PDF

Info

Publication number
CN101976455A
CN101976455A CN2010105039870A CN201010503987A CN101976455A CN 101976455 A CN101976455 A CN 101976455A CN 2010105039870 A CN2010105039870 A CN 2010105039870A CN 201010503987 A CN201010503987 A CN 201010503987A CN 101976455 A CN101976455 A CN 101976455A
Authority
CN
China
Prior art keywords
pixel
image
parallax
arbitrary
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010105039870A
Other languages
English (en)
Other versions
CN101976455B (zh
Inventor
达飞鹏
曹云云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Wanjia Textile Co., Ltd.
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN2010105039870A priority Critical patent/CN101976455B/zh
Publication of CN101976455A publication Critical patent/CN101976455A/zh
Application granted granted Critical
Publication of CN101976455B publication Critical patent/CN101976455B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

一种基于立体匹配的彩色图像三维重建方法:(1)使用两台彩色摄像机从合适角度同时各拍摄一幅图像;(2)分别对两台摄像机的内、外参数矩阵进行标定;(3)根据标定数据进行对极线校正、图像变换;(4)运用自适应权重窗口算法为校正后的两幅图像中每个像素点计算匹配代价并获取初始视差图;(5)采用匹配代价可信度检测和左右一致性校验标记像素初始匹配结果的可靠度系数;(6)通过Mean-Shift算法对图像彩色分割;(7)以彩色分割和像素可靠度分类结果为基础的具有选择性的置信度传播算法进行全局优化,得到最终的视差图(8)根据标定数据和匹配关系计算图像上实际物点的三维坐标,从而重建出物体的三维点云。

Description

一种基于立体匹配的彩色图像三维重建方法
技术领域
本发明属于双目立体视觉技术领域,涉及到基于立体匹配处理彩色实拍图像的问题,尤其涉及到一种使用自适应权重算法来计算匹配代价和基于图像分割和像素可靠度分类结果的选择性置信度传播算法来获取像素点匹配关系以重建目标物三维点云的方法。
背景技术
双目立体视觉技术是一种被动式的三维测量方法,其实现方式灵活、对环境要求低、人机交互友好,是三维重建算法中比较流行的一种技术。双目立体视觉旨在模拟人类双眼识别场景三维信息的机理,从两个角度获取场景的二维图像,再根据建立图像之间的匹配关系重建三维模型,主要包括摄像机标定,图像对匹配,三维信息还原等主要过程。建立两幅图像像素点对应关系的过程就是立体匹配的过程,它是双目立体视觉技术的核心。
立体匹配的主要任务是得到光滑逼真的稠密视差图,立体匹配算法主要分为局部算法和全局算法,局部算法利用像素点的邻域信息进行匹配,计算复杂度较低,但匹配精度不高,特别在低纹理、视差不连续区域容易产生错误。全局算法将平滑性代价加入匹配代价的计算中,使匹配转化为能量函数的全局最优过程,主要有图割算法,置信度传播算法和动态规划算法。其中动态规划算法计算复杂度最低,速度最快,但容易产生条状瑕疵问题,置信度传播算法和图割算法匹配精度较高,计算得到的视差图在边缘区域和深度不连续区域的效果较好,相对而言,图割算法耗时久,实时性能有待改善。
现有的基于双目立体视觉的三维重建算法存在以下几个方面的缺点:
(1)构建合适的邻域窗口是局部算法的关键,窗口太小,则无法包含待匹配像素点足够的邻域信息,窗口太大,则匹配代价的计算中将包含不具有指导意义的邻域信息,这些都会导致错误匹配的产生。
(2)全局算法中计算复杂度相对较低的动态规划算法将全局能量优化局限
于一维的扫描线内,丢失了其他方向的光滑性约束,图割算法耗时较久,很难满足实拍图像三维重建的实时性要求,置信度传播算法不加选择地在邻域像素之间传播置信度,而在视差不连续区域邻域像素之间可能不满足视差连续性约束,结果导致重建点云边界不清晰。
由于存在以上缺点,现有的基于立体匹配的三维重建算法在实际应用中并不能得到令人满意的结果。
发明内容
本发明的目的是提供一种基于立体匹配的彩色图像三维重建方法,能够准确快速自动重建图像三维点云。
本发明采用的技术方案是:首先采集两幅彩色实拍图像,进行摄像机标定,根据标定数据进行对极线校正和图像变换,通过初始匹配计算匹配代价和初始视差图,利用匹配代价可信度检测和左右一致性校验将初始匹配结果按照可靠度分类,然后对校正后的左图像进行彩色分割,再以具有选择性的置信度传播算法进行全局优化得到最终视差图,最后利用标定数据和匹配结果重建三维点云并显示。
本发明的方法具体包括以下几个步骤:
步骤1:图像获取
使用两台彩色摄像机同时从相差不大的两个角度对同一个场景拍摄两幅图像,其中左边的摄像机拍摄的为原始左图像,右边的摄像机拍摄的为原始右图像;
步骤2:摄像机标定
分别对两台摄像机进行标定,建立摄像机图像像素位置与场景位置之间的关系,获得左边的摄像机的内参数矩阵AL、右边的摄像机的内参数矩阵AR和左边的摄像机的外参数矩阵[RL tL]、右边的摄像机的外参数矩阵[RR tR];
步骤3:图像对极线校正
根据步骤2得到的摄像机内外参数运用极线校正方法对所拍摄的左右图像进行极线校正得到平行式双目视觉模型,使匹配像素对具有相同的纵坐标,校正后的左图像和右图像分别记为Il和Ir
步骤4:初始匹配:
步骤4.1:确定候选视差范围D:
D=(dmin,dmax),
其中dmin为最小视差,dmin=0,dmax为最大视差,通过标记基准图像和配准图像之间的匹配像素点对求得:
随机选取基准图像中的十个像素点{pl1,pl2,pl3,…,pl10},在配准图像中分别寻找与{pl1,pl2,pl3,…,pl10}具有相同纵坐标和相近颜色信息的十个估算匹配像素点{pr1,pr2,pr3,…,pr10},于是得到十组估算匹配像素对{(pl1,pr1),(pl2,pr2),(pl3,pr3),…,(pl10,pr10)},对每一组匹配像素对计算两像素的横坐标之差的绝对值得到一组视差值{d1,d2,d3,…,d10},最大视差dmax=max{d1,d2,...,d10}+5;
步骤4.2:自适应权重窗口算法
以校正后的左图像Il为基准图像,以校正后的右图像Ir为配准图像,采用自适应权重窗口方法对基准图像中的每一个像素点计算匹配代价并得到初始左视差图,然后,以校正后的右图像Ir为基准图像,以校正后的左图像Il为配准图像,采用自适应权重窗口方法对基准图像中的每一个像素点计算匹配代价并得到初始右视差图,所述的自适应权重窗口方法为:
步骤4.2.1:权重系数计算
首先将基准图像记为I1,配准图像记为I2,然后利用颜色和空间信息对两幅图像中每个像素点计算邻域窗口内所有像素的权重系数Epq
E pq = e - ( αΔpq + β | | p - q | | 2 ) ,
其中p是基准图像或配准图像中的像素点,q为以像素p中心、大小为n×n的邻域窗口内的任一像素点,n=35,Δpq表示在RGB空间下像素p和q之间的颜色差异,||p-q||2是两像素之前的欧氏距离,α和β为常系数,α=0.1,β=0.047;
步骤4.2.2:匹配代价计算
在水平极线约束下,对基准图像中的每个像素计算候选视差范围内所有视差值对应的匹配代价C(p1,d):
C ( p 1 , d ) = Σ ( q 1 , q 2 ) ∈ W p 1 × W p 2 E p 1 q 1 × E p 2 q 2 × S ( q 1 , q 2 ) Σ ( q 1 , q 2 ) ∈ W p 1 × W p 2 E p 1 q 1 × E p 2 q 2 ,
其中p1为基准图像中任一像素点,p1的坐标为
Figure BSA00000299141600042
d为候选视差范围D内的任一视差值,像素p2为p1在配准图像中对应于视差d的候选匹配像素点,当基准图像为左图像时,p2的坐标是当基准图像为右图像时,p2的坐标是
Figure BSA00000299141600044
Figure BSA00000299141600045
分别表示以像素点p1,p2为中心、大小为n×n的邻域窗口,像素q1为窗口
Figure BSA00000299141600046
内的任一邻域像素点,坐标为
Figure BSA00000299141600047
像素q2为窗口
Figure BSA00000299141600048
内的与q1对应的像素点,,当基准图像为左图像时,q2的坐标是
Figure BSA00000299141600049
基准图像为右图像时,q2的坐标是
Figure BSA000002991416000411
为根据步骤4.2.1求得的权重系数,S(q1,q2)为对应像素对(q1,q2)的差异度;
步骤4.2.3:计算初始视差值
对每个像素计算匹配代价最小的视差值d0(p1):
Figure BSA000002991416000413
其中p1为基准图像中的任一像素点,D为候选视差范围,dmin和dmax为最小视差和最大视差,C(p1,d)是根据步骤4.2.1计算得到的匹配代价;匹配代价最小的视差值d0(p1)为像素p1的初始匹配视差结果;
步骤4.2.4:建立初始视差图像
建立初始视差图像D0:D0(i,j)=d0(pij),其中i和j分别为视差图像像素点的横坐标和纵坐标,pij是基准图像中坐标为(i,j)的像素点,d0(pij)为步骤4.2.3中计算得到的pij的初始匹配视差结果;
如果基准图像为左图像Il,将初始视差图D0赋值给初始左视差图Dl 0,如果基准图像为右图像Ir,将初始视差图D0赋值给初始右视差图Dr 0
步骤5:像素可靠度标记:
步骤5.1:匹配代价可信度检验
将左图像Il所有像素按照匹配代价可信度分类,可信度较高的集合记为Mhc,可信度较低的集合为记为Mlc:左图像Il中的任一像素pl匹配代价可信度为r(pl):
Figure BSA00000299141600051
Cmin1为pl初始匹配视差结果对应的匹配代价,即最小匹配代价值,而Cmin2为pl的第二小的匹配代价,然后设定阈值dist,当r(pl1)>dist时,pl的匹配结果可信度为较高,pl∈Mhc,否则可信度为较低,pl∈Mlc,其中阈值dist取0.04;
步骤5.2:左右一致性校验
对于左图像中的任一像素pl,坐标为
Figure BSA00000299141600052
pl的初始视差结果
Figure BSA00000299141600053
在右图像中对应的匹配像素pr的坐标为
Figure BSA00000299141600054
根据步骤4得到的初始右视差图像Dr 0得到像素pr的初始视差结果
Figure BSA00000299141600055
如果d1=d2,则像素pl通过左右一致性校验,记为pl∈Mac,否则,像素pl未通过左右一致性校验,记为pl∈Mbc,其中Mac和Mbc分别为通过左右一致性校验的集合和未通过左右一致性校验的集合;
步骤5.3:像素可靠度系数标记
根据步骤5.1和5.2的结果对左图像中每个像素标记可靠度系数Con(pl):
Con ( p l ) = 4 , if p l ∈ M hc ∩ M ac 3 , if p l ∈ M lc ∩ M ac 2 , if p l ∈ M hc ∩ M bc 1 , if p l ∈ M lc ∩ M bc
其中pl为左图像中的任一像素,Con(pl)为pl的可靠度系数;
步骤6:图像分割:
用Mean-Shift算法对左图像进行分割,对每个像素标记所属的分割区域S(pl),其中pl为左图像中任一像素,S(pl)为像素pl所属的区域标号;
步骤7:全局优化
步骤7.1:像素平滑代价计算
计算左图像中每个像素与该像素的上下左右四个邻域像素之间的相对于视察范围D内所有视差值的平滑代价J(pl,ql,dp,dq):
J(pl,ql,dp,dq)=min{|dp-dq|,|dmax-dmin|/8},
其中pl为左图像中的任一像素,ql为像素pl的任一四邻域像素,dp和dq分别为像素pl和ql的在视差范围D内的任一视差,dmax和dmin为最大视差和最小视差;
步骤7.2:计算像素节点的置信度消息
迭代计算置信度消息,t为迭代的次数,初始值为0,当t=50时停止迭代,每一次迭代的计算过程为:
t次迭代时,对左图像中每个像素节点计算下一次迭代时该像素向四邻域像素传播的,相对于视差范围D内每一个视差值的置信度消息
Figure BSA00000299141600061
M p l q l t ( d ) = min d x ∈ D ( C ( p l , d ) + Σ q s ∈ N 1 ( p l ) \ q l M q s p l t - 1 ( d x ) + J ( p l , q l , d , d x ) ) ,
其中pl为左图像中任一像素,ql为像素pl的任意一个四邻域像素,D为步骤4.1中定义的视差范围,d为D内的任一视差值,C(pl,d)为步骤4.2.2中计算得到的匹配代价,dx为视差范围D内的任一视差值,J(pl,ql,d,dx)为步骤7.1求得的平滑代价,
Figure BSA00000299141600063
为t-1次迭代求得的从像素qs向pl传播的视差为dx的置信度消息,t=1时
Figure BSA00000299141600064
为0,dx为视差范围D内的任一视差值,qs为像素pl的选择性邻域N1(pl)内、不同于像素ql的任一像素,所述的选择性邻域N1(pl)为:
N1(pl)={qf|qf∈N(pl),Con(qf)≥Con(pl)and S(qf)=S(pl)},
式中N1(pl)为像素pl的上下左右四邻域,Con(qf)和Con(pl)为步骤5.3中标记的可靠度系数,S(qf)和S(pl)为步骤6中求得的像素qf和pl所属的分割区域标号;
步骤7.3:计算左图像中每个像素点相对于所有可能视差的置信度b(pl,d):
Figure BSA00000299141600071
其中pl为左图像中的任一像素,d为D内的任一视差值,C(pl,d)为步骤4.2.2得到的匹配代价,
Figure BSA00000299141600072
为第50次迭代计算得到的从像素ps向pl传播的视差为d的置信度消息,ps为N1(pl)内的任一像素,N1(pl)为步骤7.2中定义的pl的选择性邻域;
步骤7.4:计算视差图像
根据每个像素的置信度计算最优视差值d(pl):
d ( p l ) = arg min d ∈ D b ( p l , d ) ,
其中pl为左图像中的任一像素,b(pl,d)为步骤7.3计算得到的置信度,D为视差范围,d为视察范围D内的任一视差值;
根据左图像中每个像素的最优视差建立最终视差图像Dout:Dout(x,y)=d(pxy),其中x和y分别为视差图像Dout像素点的横坐标和纵坐标,pxy是基准图像中坐标为(x,y)的像素点,d(pxy)为pxy的最优视差值;
步骤8:重建目标物的三维信息
根据步骤2得到的摄像机内外参数矩阵AL、AR和[RL tL]、[RR tR],以及步骤7得到的视差图Dout,通过空间交汇法计算得到整个目标物的三维点云模型。有益效果:与现有技术相比,本发明具有下面的优点:自适应权重窗口算法根据邻域像素的空间和颜色信息计算其相对于待匹配像素的权重,避免了局部算法固有的较困难的自适应窗口构建过程;传统置信度算法在所有相邻像素之间传播置信度消息,由于部分相邻像素之间不满足视差连续性约束以及某些像素的初始匹配结果不具有指导意义,传统置信度算法中存在不合理的传播路径,导致匹配准确度不高、优化速度慢等问题,本发明利用彩色图像分割和像素可靠度分类结果来指导置信度消息传播的范围和方向,这种具有选择性的置信度传播算法切断了传统置信度算法中不合理的部分,使得全局能量优化的路径得到优化,计算复杂度降低且更具针对性,在迭代优化的过程中低可靠度像素的匹配结果不断得到修正,最终得到匹配精度较高的视差图。本发明充分结合了局部最优算法和全局最优算法的优点,将二者结合到一起,克服了现有三维重建技术在重建准确度和重建速度之间的矛盾,并且提高了重建过程的自动化程度。
附图说明
图1是本发明完整流程图。
图2是本发明步骤4初始匹配中采用的自适应权重窗口匹配算法的流程图。
图3是本发明步骤5像素可靠度标记算法的流程图。
图4是本发明步骤7中采用的具有选择性的置信度传播算法流程图。
图5系统模型及原理示意图。
图6极线校正示意图。
图7自适应权重窗口示意图。
图8对应像素差异度计算示意图。
图9像素可靠度分类示意图。
图10传统置信度传播算法传播路径示意图。
图11基于像素可靠度分类的置信度传播路径示意图。
图12基于图像分割结果的置信度传播路径示意图。
图13由匹配关系和标定数据计算图片上物点的空间三维坐标示意图。
具体实施方式
下面参照附图,对本发明具体实施方案做更为详细的描述。编程实现工具选用Visual C++6.0和OpenCV图像处理函数库,室内环境中拍摄了两幅含有较多视差不连续和低纹理区域的彩色图像。
图1为本发明的完整流程图
图5为本发明的系统模型及原理示意图。使用两个彩色CCD分别从两个不同角度同时拍摄一幅彩色图像,OL、OR分别为两台摄像机的光心,IL、IR分别为两台摄像机的成像平面,P为待重构的目标物上的一个空间物点,PL,PR为物点P分别在两台摄像机成像平面上所成的像点。这种由同一空间物点在不同摄像机成像平面上所成的像点为一对匹配点。任取其中一幅为基准图像,另一幅为配准图像,为基准图像中的每个像素点在对准图像中搜索对应的匹配点的过程称为立体匹配。得到像素点的匹配关系后,根据系统模型,结合标定得到的摄像机内外参数,进行逆向运算,就可得到对应物点的空间三维坐标,从而实现图像的三维重构。
图6为极线校正示意图。对于左图中像素点pl,匹配像素pr的搜索只需在右图中对应于pl的极线上进行,而平行立体视觉模型的所有极线均平行于光心的连线OlOr,则立体图像对只有水平位移,在此情况下可以进一步的减少搜索难度,对应点的搜索仅仅沿同一行搜索即可。但在实际中,这种标准模型很难满足,成像平面不在同一个平面上,可以通过极线校正使成像平面旋转,从而得到两个虚拟平行的成像平面。通过绕光心旋转初始的投影矩阵直到两个焦平面共面,基线也包含在焦平面内,从而得到两个新的投影矩阵。这样极点就位于无穷远处;因此极线是平行的。为了同时使得极线是水平的,基线必须平行于两个相机的新的X轴方向。另外,为了得到正确的校正,共轭点对必须具有相同的纵坐标,这可以通过让新的相机配置拥有相同的内参数得到。
本发明的方法具体包括以下几个步骤:
步骤1:图像获取
使用两台彩色摄像机同时从相差不大的两个角度对同一个场景拍摄两幅图像,其中左边的摄像机拍摄的为原始左图像,右边的摄像机拍摄的为原始右图像;
步骤2:摄像机标定
分别对两台摄像机进行标定,建立摄像机图像像素位置与场景位置之间的关系,获得左边的摄像机的内参数矩阵AL、右边的摄像机的内参数矩阵AR和左边的摄像机的外参数矩阵[RL tL]、右边的摄像机的外参数矩阵[RR tR];
摄像机标定技术现在已经比较成熟,参考文献“A Flexible New Technique for Camera Calibration”(Zhang Z Y,IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,20(11):1330-1334)提出了一种称为平面模板法的标定算法,本发明中采用这种方法分别对两台摄像机进行标定;
步骤3:图像对极线校正
根据步骤2得到的摄像机内外参数运用极线校正方法对所拍摄的左右图像进行极线校正得到平行式双目视觉模型,使匹配像素对具有相同的纵坐标,校正后的左图像和右图像分别记为Il和Ir
采用参考文献“A compact algorithm for rectification of stereo pairs.Machine Vision and Applications”(Fusiello A,Trucco E,Verri A.2000,12(1):16-22)中的提出的极线校正方法对所拍摄的左右图像进行对极线校正,如图6所示,如果变换后图像中的像素点坐标对应到原始图像中的非整数坐标上时,则进行双线性插值,最后得到平行式双目视觉模型,经过校正后的图像无失真,匹配像素对的纵坐标之间的误差小于一个像素,匹配的空间复杂度大大降低。
步骤4:初始匹配:
步骤4.1:确定候选视差范围D:
D=(dmin,dmax),
其中dmin为最小视差,dmin=0,dmax为最大视差,通过标记基准图像和配准图像之间的匹配像素点对求得:
随机选取基准图像中的十个像素点{pl1,pl2,pl3,…,pl10},在配准图像中分别寻找与{pl1,pl2,pl3,…,pl10}具有相同纵坐标和相近颜色信息的十个估算匹配像素点{pr1,pr2,pr3,…,pr10},于是得到十组估算匹配像素对{(pl1,pr1),(pl2,pr2),(pl3,pr3),…,(pl10,pr10)},对每一组匹配像素对计算两像素的横坐标之差的绝对值得到一组视差值{d1,d2,d3,…,d10},最大视差dmax=max{d1,d2,...,d10}+5;
步骤4.2:自适应权重窗口算法
以校正后的左图像Il为基准图像,以校正后的右图像Ir为配准图像,采用自适应权重窗口方法对基准图像中的每一个像素点计算匹配代价并得到初始左视差图,然后,以校正后的右图像Ir为基准图像,以校正后的左图像Il为配准图像,采用自适应权重窗口方法对基准图像中的每一个像素点计算匹配代价并得到初始右视差图,所述的自适应权重窗口方法为:
步骤4.2.1:权重系数计算
首先将基准图像记为I1,配准图像记为I2,然后利用颜色和空间信息对两幅图像中每个像素点计算邻域窗口内所有像素的权重系数Epq
E pq = e - ( αΔpq + β | | p - q | | 2 ) ,
其中p是基准图像或配准图像中的像素点,q为以像素p中心、大小为n×n的邻域窗口内的任一像素点,n=35,Δpq表示在RGB空间下像素p和q之间的颜色差异,
Figure BSA00000299141600111
其中c表示图像的r,g或者b通道,Ic(p)和Ic(q)表示像素p和q在c通道下的颜色分量,||p-q||2是两像素之前的欧氏距离,α和β为常系数,α=0.1,β=0.047;
步骤4.2.2:匹配代价计算
在水平极线约束下,对基准图像中的每个像素计算候选视差范围内所有视差值对应的匹配代价C(p1,d):
C ( p 1 , d ) = Σ ( q 1 , q 2 ) ∈ W p 1 × W p 2 E p 1 q 1 × E p 2 q 2 × S ( q 1 , q 2 ) Σ ( q 1 , q 2 ) ∈ W p 1 × W p 2 E p 1 q 1 × E p 2 q 2 ,
其中p1为基准图像中任一像素点,p1的坐标为
Figure BSA00000299141600113
d为候选视差范围D内的任一视差值,像素p2为p1在配准图像中对应于视差d的候选匹配像素点,当基准图像为左图像时,p2的坐标是
Figure BSA00000299141600114
当基准图像为右图像时,p2的坐标是
Figure BSA00000299141600115
分别表示以像素点p1,p2为中心、大小为n×n的邻域窗口,像素q1为窗口
Figure BSA00000299141600117
内的任一邻域像素点,坐标为
Figure BSA00000299141600118
像素q2为窗口
Figure BSA00000299141600119
内的与q1对应的像素点,,当基准图像为左图像时,q2的坐标是
Figure BSA000002991416001110
基准图像为右图像时,q2的坐标是
Figure BSA000002991416001111
Figure BSA000002991416001112
Figure BSA000002991416001113
为根据步骤4.2.1求得的权重系数,S(q1,q2)为对应像素对(q1,q2)的差异度;
如图8所示,
Figure BSA000002991416001115
其中,q2l为q2的左邻域像素,坐标为q2r为q2的右邻域像素,坐标为
Figure BSA000002991416001117
I2(q2)、I2(q2l)和I2(q2r)分别为像素q2、q2l和q2r在配准图像I2中的RGB三通道分量的平均值,然后定义,
Figure BSA000002991416001118
Figure BSA000002991416001119
则像素q1和q2的差异度为:
S=max{0,I1(q1)-Imax,Imin-I1(q1)},
其中I1(q1)为像素q1在基准图像I1中的RGB三通道分量的平均值;
步骤4.2.3:计算初始视差值
对每个像素计算匹配代价最小的视差值d0(p1):
Figure BSA00000299141600121
其中p1为基准图像中的任一像素点,D为候选视差范围,dmin和dmax为最小视差和最大视差,C(p1,d)是根据步骤4.2.1计算得到的匹配代价;匹配代价最小的视差值d0(p1)为像素p1的初始匹配视差结果;
步骤4.2.4:建立初始视差图像
建立初始视差图像D0:D0(i,j)=d0(pij),其中i和j分别为视差图像像素点的横坐标和纵坐标,pij是基准图像中坐标为(i,j)的像素点,d0(pij)为步骤4.2.3中计算得到的pij的初始匹配视差结果;
如果基准图像为左图像Il,将初始视差图D0赋值给初始左视差图Dl 0,如果基准图像为右图像Ir,将初始视差图D0赋值给初始右视差图Dr 0
步骤5:像素可靠度标记:
步骤5.1:匹配代价可信度检验
将左图像Il所有像素按照匹配代价可信度分类,可信度较高的集合记为Mhc,可信度较低的集合为记为Mlc:左图像Il中的任一像素pl匹配代价可信度为r(pl):
Figure BSA00000299141600122
Cmin1为pl初始匹配视差结果对应的匹配代价,即最小匹配代价值,而Cmin2为pl的第二小的匹配代价,然后设定阈值dist,当r(pl1)>dist时,pl的匹配结果可信度为较高,pl∈Mhc,否则可信度为较低,pl∈Mlc,其中阈值dist取0.04;
步骤5.2:左右一致性校验
对于左图像中的任一像素pl,坐标为
Figure BSA00000299141600123
pl的初始视差结果
Figure BSA00000299141600124
在右图像中对应的匹配像素pr的坐标为
Figure BSA00000299141600125
根据步骤4得到的初始右视差图像Dr 0得到像素pr的初始视差结果
Figure BSA00000299141600131
如果d1=d2,则像素pl通过左右一致性校验,记为pl∈Mac,否则,像素pl未通过左右一致性校验,记为pl∈Mbc,其中Mac和Mbc分别为通过左右一致性校验的集合和未通过左右一致性校验的集合;
步骤5.3:像素可靠度系数标记
根据步骤5.1和5.2的结果对左图像中每个像素标记可靠度系数Con(pl):
Con ( p l ) = 4 , if p l ∈ M hc ∩ M ac 3 , if p l ∈ M lc ∩ M ac 2 , if p l ∈ M hc ∩ M bc 1 , if p l ∈ M lc ∩ M bc
其中pl为左图像中的任一像素,Con(pl)为pl的可靠度系数;
步骤6:图像分割:
用Mean-Shift算法对左图像进行分割,对每个像素标记所属的分割区域S(pl),其中pl为左图像中任一像素,S(pl)为像素pl所属的区域标号;
参数设置为:空间带宽hs=7,颜色带宽hr=6.5,最小区域大小M=35;
步骤7:全局优化
传统的置信度传播路径如图10所示,像素p0从四个邻域像素得到置信度,图中实线箭头表示传播方向,虚线箭头表示上一轮置信度传播的方向。假设像素p01是不可靠的像素,那么在置信度传播过程中,来自p01的信息Mp01p0的可靠度也就相对较低,从而像素p0的匹配代价计算中加入了不可靠的信息,可能导致错误的匹配结果。针对这个问题,本发明在像素可靠度分类的基础上,改进了传统置信度传播的路径,如图11所示,用四种不同图案表示像素的可靠度,
Figure BSA00000299141600133
表示像素的可靠度最高,可靠度系数为4,表示像素可靠度系数为3,
Figure BSA00000299141600135
表示像素可靠度系数为2,
Figure BSA00000299141600136
表示像素可靠度最低,可靠度系数为1,我们规定在相邻像素之间传播置信度时,若两像素可靠度不等,传播方向由可靠度高的指向可靠度低的;若两像素可靠度相等,采取双向传播的原则。匹配信息从接近于真实视差的可靠网络流向不可靠的网络使得本文的全局优化算法在传播方向上具有了选择性。
视差连续性是置信度传播的前提,如图10所示,像素p02与像素p0分别位于某物体边缘的两侧并且真实视差相差很大,那么从p02传播而来的置信度对像素p0将不具有指导意义。然而三维场景中存在许多深度不连续的区域,在这些区域内传播置信度是不适合的。视差跳变的区域往往伴随着颜色的变化,基于这个事实,本发明利用彩色分割信息来约束置信度传播的范围,避免在颜色发生跳变的区域传播置信度,如图12所示,s1和s2分别表示两个不同的分割区域,规定在相同分割块内传播置信度,属于不同分割块的两像素之间的传播路径断开。这种受分割信息约束的算法可以有效地减少置信度在视差相差较大的相邻像素之间传播,改善了BP算法在视差不连续区域的匹配性能。
步骤7.1:像素平滑代价计算
计算左图像中每个像素与该像素的上下左右四个邻域像素之间的相对于视察范围D内所有视差值的平滑代价J(pl,ql,dp,dq):
J(pl,ql,dp,dq)=min{|dp-dq|,|dmax-dmin|/8},
其中pl为左图像中的任一像素,ql为像素pl的任一四邻域像素,dp和dq分别为像素pl和ql的在视差范围D内的任一视差,dmax和dmin为最大视差和最小视差;
步骤7.2:计算像素节点的置信度消息
迭代计算置信度消息,t为迭代的次数,初始值为0,当t=50时停止迭代,每一次迭代的计算过程为:
t次迭代时,对左图像中每个像素节点计算下一次迭代时该像素向四邻域像素传播的,相对于视差范围D内每一个视差值的置信度消息
Figure BSA00000299141600141
M p l q l t ( d ) = min d x ∈ D ( C ( p l , d ) + Σ q s ∈ N 1 ( p l ) \ q l M q s p l t - 1 ( d x ) + J ( p l , q l , d , d x ) ) ,
其中pl为左图像中任一像素,ql为像素pl的任意一个四邻域像素,D为步骤4.1中定义的视差范围,d为D内的任一视差值,C(pl,d)为步骤4.2.2中计算得到的匹配代价,dx为视差范围D内的任一视差值,J(pl,ql,d,dx)为步骤7.1求得的平滑代价,
Figure BSA00000299141600151
为t-1次迭代求得的从像素qs向pl传播的视差为dx的置信度消息,t=1时
Figure BSA00000299141600152
为0,dx为视差范围D内的任一视差值,qs为像素pl的选择性邻域N1(pl)内、不同于像素ql的任一像素,所述的选择性邻域N1(pl)为:
N1(pl)={qf|qf∈N(pl),Con(qf)≥Con(pl)and S(qf)=S(pl)},
式中N1(pl)为像素pl的上下左右四邻域,Con(qf)和Con(pl)为步骤5.3中标记的可靠度系数,S(qf)和S(pl)为步骤6中求得的像素qf和pl所属的分割区域标号;
步骤7.3:计算左图像中每个像素点相对于所有可能视差的置信度b(pl,d):
Figure BSA00000299141600153
其中pl为左图像中的任一像素,d为D内的任一视差值,C(pl,d)为步骤4.2.2得到的匹配代价,
Figure BSA00000299141600154
为第50次迭代计算得到的从像素ps向pl传播的视差为d的置信度消息,ps为N1(pl)内的任一像素,N1(pl)为步骤7.2中定义的pl的选择性邻域;
步骤7.4:计算视差图像
根据每个像素的置信度计算最优视差值d(pl):
d ( p l ) = arg min d ∈ D b ( p l , d ) ,
其中pl为左图像中的任一像素,b(pl,d)为步骤7.3计算得到的置信度,D为视差范围,d为视察范围D内的任一视差值;
根据左图像中每个像素的最优视差建立最终视差图像Dout:Dout(x,y)=d(pxy),其中x和y分别为视差图像Dout像素点的横坐标和纵坐标,pxy是基准图像中坐标为(x,y)的像素点,d(pxy)为pxy的最优视差值;
步骤8:重建目标物的三维信息
根据步骤2得到的摄像机内外参数矩阵AL、AR和[RL tL]、[RR tR],以及步骤7得到的视差图Dout,通过空间交汇法计算得到整个目标物的三维点云模型。
图13是空间交汇法的示意图,OL、OR分别为两台摄像机的光心,SL、SR分别为两台摄像机的成像平面,PL、PR为两台摄像机所拍摄图像中的一对匹配点。空间中物点三维坐标和成像平面上像素点坐标之间有下面的关系:
s u v 1 = A R T 0 T 1 X w Y w Z w 1
其中(u,v)表示空间物点在成像平面上所成的像素点的像素坐标,(Xw,Yw,Zw)表示物点的空间坐标。它代表了一条经过摄像机光心、成像点、空间物点的直线方程。
左图像中的任一像素pl在右图中的匹配像素点为pr,pr的坐标为
Figure BSA00000299141600162
其中
Figure BSA00000299141600163
为步骤7.4计算得到的最优视差图像,
Figure BSA00000299141600164
为pl的坐标,因此只要根据匹配点对{pl,pr}的坐标就可以计算出经同一物点投射到两个成像平面上一对匹配像素点的两条直线方程,计算两条直线的交点,就可以得到物点的空间三维坐标,由于标定、匹配、运算等各个过程中都存在误差,逆向计算出的两条直线很可能不会正好相交,此时则取其公垂线的中点。

Claims (1)

1.一种基于立体匹配的彩色图像三维重建方法,其特征在于,该重建方法依次含有以下步骤:
步骤1:图像获取
使用两台彩色摄像机同时从相差不大的两个角度对同一个场景拍摄两幅图像,其中左边的摄像机拍摄的为原始左图像,右边的摄像机拍摄的为原始右图像;
步骤2:摄像机标定
分别对两台摄像机进行标定,建立摄像机图像像素位置与场景位置之间的关系,获得左边的摄像机的内参数矩阵AL、右边的摄像机的内参数矩阵AR和左边的摄像机的外参数矩阵[RL tL]、右边的摄像机的外参数矩阵[RR tR];
步骤3:图像对极线校正
根据步骤2得到的摄像机内外参数运用极线校正方法对所拍摄的左右图像进行极线校正得到平行式双目视觉模型,使匹配像素对具有相同的纵坐标,校正后的左图像和右图像分别记为Il和Ir
步骤4:初始匹配:
步骤4.1:确定候选视差范围D:
D=(dmin,dmax),
其中dmin为最小视差,dmin=0,dmax为最大视差,通过标记基准图像和配准图像之间的匹配像素点对求得:
随机选取基准图像中的十个像素点{pl1,pl2,pl3,…,pl10},在配准图像中分别寻找与{pl1,pl2,pl3,…,pl10}具有相同纵坐标和相近颜色信息的十个估算匹配像素点{pr1,pr2,pr3,…,pr10},于是得到十组估算匹配像素对{(pl1,pr1),(pl2,pr2),(pl3,pr3),…,(pl10,pr10)},对每一组匹配像素对计算两像素的横坐标之差的绝对值得到一组视差值{d1,d2,d3,…,d10},最大视差dmax=max{d1,d2,...,d10}+5;
步骤4.2:自适应权重窗口算法
以校正后的左图像Il为基准图像,以校正后的右图像Ir为配准图像,采用自适应权重窗口方法对基准图像中的每一个像素点计算匹配代价并得到初始左视差图,然后,以校正后的右图像Ir为基准图像,以校正后的左图像Il为配准图像,采用自适应权重窗口方法对基准图像中的每一个像素点计算匹配代价并得到初始右视差图,所述的自适应权重窗口方法为:
步骤4.2.1:权重系数计算
首先将基准图像记为I1,配准图像记为I2,然后利用颜色和空间信息对两幅图像中每个像素点计算邻域窗口内所有像素的权重系数Epq
E pq = e - ( αΔpq + β | | p - q | | 2 ) ,
其中p是基准图像或配准图像中的像素点,q为以像素p中心、大小为n×n的邻域窗口内的任一像素点,n=35,Δpq表示在RGB空间下像素p和q之间的颜色差异,||p-q||2是两像素之前的欧氏距离,α和β为常系数,α=0.1,β=0.047;
步骤4.2.2:匹配代价计算
在水平极线约束下,对基准图像中的每个像素计算候选视差范围内所有视差值对应的匹配代价C(p1,d):
C ( p 1 , d ) = Σ ( q 1 , q 2 ) ∈ W p 1 × W p 2 E p 1 q 1 × E p 2 q 2 × S ( q 1 , q 2 ) Σ ( q 1 , q 2 ) ∈ W p 1 × W p 2 E p 1 q 1 × E p 2 q 2 ,
其中p1为基准图像中任一像素点,p1的坐标为
Figure FSA00000299141500023
d为候选视差范围D内的任一视差值,像素p2为p1在配准图像中对应于视差d的候选匹配像素点,当基准图像为左图像时,p2的坐标是当基准图像为右图像时,p2的坐标是
Figure FSA00000299141500025
Figure FSA00000299141500026
分别表示以像素点p1,p2为中心、大小为n×n的邻域窗口,像素q1为窗口内的任一邻域像素点,坐标为
Figure FSA00000299141500028
像素q2为窗口
Figure FSA00000299141500029
内的与q1对应的像素点,,当基准图像为左图像时,q2的坐标是
Figure FSA000002991415000210
基准图像为右图像时,q2的坐标是
Figure FSA000002991415000211
Figure FSA000002991415000212
Figure FSA000002991415000213
为根据步骤4.2.1求得的权重系数,S(q1,q2)为对应像素对(q1,q2)的差异度;
步骤4.2.3:计算初始视差值对每个像素计算匹配代价最小的视差值d0(p1):其中p1为基准图像中的任一像素点,D为候选视差范围,dmin和dmax为最小视差和最大视差,C(p1,d)是根据步骤4.2.1计算得到的匹配代价;匹配代价最小的视差值d0(p1)为像素p1的初始匹配视差结果;
步骤4.2.4:建立初始视差图像
建立初始视差图像D0:D0(i,j)=d0(pij),其中i和j分别为视差图像像素点的横坐标和纵坐标,pij是基准图像中坐标为(i,j)的像素点,d0(pij)为步骤4.2.3中计算得到的pij的初始匹配视差结果;
如果基准图像为左图像Il,将初始视差图D0赋值给初始左视差图Dl 0,如果基准图像为右图像Ir,将初始视差图D0赋值给初始右视差图Dr 0
步骤5:像素可靠度标记:
步骤5.1:匹配代价可信度检验
将左图像Il所有像素按照匹配代价可信度分类,可信度较高的集合记为Mhc,可信度较低的集合为记为Mlc:左图像Il中的任一像素pl匹配代价可信度为r(pl):Cmin1为pl初始匹配视差结果对应的匹配代价,即最小匹配代价值,而Cmin2为pl的第二小的匹配代价,然后设定阈值dist,当r(pl1)>dist时,pl的匹配结果可信度为较高,pl∈Mhc,否则可信度为较低,pl∈Mlc,其中阈值dist取0.04;
步骤5.2:左右一致性校验
对于左图像中的任一像素pl,坐标为
Figure FSA00000299141500033
pl的初始视差结果
Figure FSA00000299141500034
在右图像中对应的匹配像素pr的坐标为
Figure FSA00000299141500035
根据步骤4得到的初始右视差图像Dr 0得到像素pr的初始视差结果
Figure FSA00000299141500041
如果d1=d2,则像素pl通过左右一致性校验,记为pl∈Mac,否则,像素pl未通过左右一致性校验,记为pl∈Mbc,其中Mac和Mbc分别为通过左右一致性校验的集合和未通过左右一致性校验的集合;
步骤5.3:像素可靠度系数标记
根据步骤5.1和5.2的结果对左图像中每个像素标记可靠度系数Con(pl):
Con ( p l ) = 4 , if p l ∈ M hc ∩ M ac 3 , if p l ∈ M lc ∩ M ac 2 , if p l ∈ M hc ∩ M bc 1 , if p l ∈ M lc ∩ M bc
其中pl为左图像中的任一像素,Con(pl)为pl的可靠度系数;
步骤6:图像分割:
用Mean-Shift算法对左图像进行分割,对每个像素标记所属的分割区域S(pl),其中pl为左图像中任一像素,S(pl)为像素pl所属的区域标号;
步骤7:全局优化
步骤7.1:像素平滑代价计算
计算左图像中每个像素与该像素的上下左右四个邻域像素之间的相对于视察范围D内所有视差值的平滑代价J(pl,ql,dp,dq):
J(pl,ql,dp,dq)=min{|dp-dq|,|dmax-dmin|/8},
其中pl为左图像中的任一像素,ql为像素pl的任一四邻域像素,dp和dq分别为像素pl和ql的在视差范围D内的任一视差,dmax和dmin为最大视差和最小视差;
步骤7.2:计算像素节点的置信度消息
迭代计算置信度消息,t为迭代的次数,初始值为0,当t=50时停止迭代,每一次迭代的计算过程为:
t次迭代时,对左图像中每个像素节点计算下一次迭代时该像素向四邻域像素传播的,相对于视差范围D内每一个视差值的置信度消息
Figure FSA00000299141500043
M p l q l t ( d ) = min d x ∈ D ( C ( p l , d ) + Σ q s ∈ N 1 ( p l ) \ q l M q s p l t - 1 ( d x ) + J ( p l , q l , d , d x ) ) ,
其中pl为左图像中任一像素,ql为像素pl的任意一个四邻域像素,D为步骤4.1中定义的视差范围,d为D内的任一视差值,C(pl,d)为步骤4.2.2中计算得到的匹配代价,dx为视差范围D内的任一视差值,J(pl,ql,d,dx)为步骤7.1求得的平滑代价,
Figure FSA00000299141500051
为t-1次迭代求得的从像素qs向pl传播的视差为dx的置信度消息,t=1时
Figure FSA00000299141500052
为0,dx为视差范围D内的任一视差值,qx为像素pl的选择性邻域N1(pl)内、不同于像素ql的任一像素,所述的选择性邻域N1(pl)为:
N1(pl)={qf|qf∈N(pl),Con(qf)≥Con(pl)and S(qf)=S(pl)},
式中N1(pl)为像素pl的上下左右四邻域,Con(qf)和Con(pl)为步骤5.3中标记的可靠度系数,S(qf)和S(pl)为步骤6中求得的像素qf和pl所属的分割区域标号;
步骤7.3:计算左图像中每个像素点相对于所有可能视差的置信度b(pl,d):
Figure FSA00000299141500053
其中pl为左图像中的任一像素,d为D内的任一视差值,C(pl,d)为步骤4.2.2得到的匹配代价,为第50次迭代计算得到的从像素ps向pl传播的视差为d的置信度消息,ps为N1(pl)内的任一像素,N1(pl)为步骤7.2中定义的pl的选择性邻域;
步骤7.4:计算视差图像
根据每个像素的置信度计算最优视差值d(pl):
d ( p l ) = arg min d ∈ D b ( p l , d ) ,
其中pl为左图像中的任一像素,b(pl,d)为步骤7.3计算得到的置信度,D为视差范围,d为视察范围D内的任一视差值;
根据左图像中每个像素的最优视差建立最终视差图像Dout:Dout(x,y)=d(pxy),其中x和y分别为视差图像Dout像素点的横坐标和纵坐标,pxy是基准图像中坐标为(x,y)的像素点,d(pxy)为pxy的最优视差值;
步骤8:重建目标物的三维信息
根据步骤2得到的摄像机内外参数矩阵AL、AR和[RL tL]、[RR tR],以及步骤7得到的视差图Dout,通过空间交汇法计算得到整个目标物的三维点云模型。
CN2010105039870A 2010-10-08 2010-10-08 一种基于立体匹配的彩色图像三维重建方法 Expired - Fee Related CN101976455B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2010105039870A CN101976455B (zh) 2010-10-08 2010-10-08 一种基于立体匹配的彩色图像三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010105039870A CN101976455B (zh) 2010-10-08 2010-10-08 一种基于立体匹配的彩色图像三维重建方法

Publications (2)

Publication Number Publication Date
CN101976455A true CN101976455A (zh) 2011-02-16
CN101976455B CN101976455B (zh) 2012-02-01

Family

ID=43576337

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010105039870A Expired - Fee Related CN101976455B (zh) 2010-10-08 2010-10-08 一种基于立体匹配的彩色图像三维重建方法

Country Status (1)

Country Link
CN (1) CN101976455B (zh)

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102111637A (zh) * 2011-03-29 2011-06-29 清华大学 生成立体视频深度图的方法及装置
CN102333234A (zh) * 2011-10-28 2012-01-25 清华大学 一种双目立体视频状态信息的监测方法及装置
CN102750694A (zh) * 2012-06-04 2012-10-24 清华大学 基于局部最优置信传播算法的双目视频深度图求取方法
CN102821290A (zh) * 2011-06-06 2012-12-12 索尼公司 图像处理设备、图像处理方法以及程序
CN102880444A (zh) * 2012-08-24 2013-01-16 浙江捷尚视觉科技有限公司 一种基于立体视觉运动场分析的打架斗殴检测方法
CN102930530A (zh) * 2012-09-26 2013-02-13 苏州工业职业技术学院 一种双视点图像的立体匹配方法
CN103106688A (zh) * 2013-02-20 2013-05-15 北京工业大学 基于双层配准方法的室内三维场景重建方法
CN103279973A (zh) * 2013-06-13 2013-09-04 清华大学 基于混合并行的立体图像匹配系统
CN103310482A (zh) * 2012-03-12 2013-09-18 中兴通讯股份有限公司 一种三维重建方法及系统
CN103868460A (zh) * 2014-03-13 2014-06-18 桂林电子科技大学 基于视差优化算法的双目立体视觉自动测量方法
CN103955920A (zh) * 2014-04-14 2014-07-30 桂林电子科技大学 基于三维点云分割的双目视觉障碍物检测方法
CN103971356A (zh) * 2013-02-04 2014-08-06 腾讯科技(深圳)有限公司 基于视差信息的街景图像目标分割方法及装置
CN104112270A (zh) * 2014-05-14 2014-10-22 苏州科技学院 一种基于自适应权重多尺度窗口的任意点匹配算法
CN104200453A (zh) * 2014-09-15 2014-12-10 西安电子科技大学 基于图像分割和可信度的视差图像校正方法
CN104331890A (zh) * 2014-10-30 2015-02-04 北京大学深圳研究生院 一种全局视差估计方法和系统
CN104376593A (zh) * 2014-11-25 2015-02-25 四川大学 基于多窗口相位相关的影像三维重建方法
CN104408710A (zh) * 2014-10-30 2015-03-11 北京大学深圳研究生院 一种全局视差估计方法和系统
CN104427324A (zh) * 2013-09-02 2015-03-18 联咏科技股份有限公司 视差计算方法及其立体匹配装置
CN104778748A (zh) * 2015-04-03 2015-07-15 四川大学 用于未校准图像的高精度三维重建
CN105096307A (zh) * 2014-05-08 2015-11-25 三菱电机株式会社 在成对的立体图像中检测物体的方法
CN105277169A (zh) * 2015-09-25 2016-01-27 安霸半导体技术(上海)有限公司 基于图像分割的双目测距方法
CN105444696A (zh) * 2015-12-30 2016-03-30 天津大学 一种基于透视投影直线测量模型的双目匹配方法及其应用
WO2016065578A1 (zh) * 2014-10-30 2016-05-06 北京大学深圳研究生院 一种全局视差估计方法和系统
CN105574875A (zh) * 2015-12-18 2016-05-11 燕山大学 一种基于极曲线几何的鱼眼图像稠密立体算法
CN105638613A (zh) * 2015-12-22 2016-06-08 中国农业大学 一种药剂喷施机器人系统及控制方法
CN105761270A (zh) * 2016-03-15 2016-07-13 杭州电子科技大学 一种基于外极线距离变换的树型滤波立体匹配方法
CN106228605A (zh) * 2016-07-29 2016-12-14 东南大学 一种基于动态规划的立体匹配三维重建方法
CN106447661A (zh) * 2016-09-28 2017-02-22 深圳市优象计算技术有限公司 一种深度图快速生成方法
CN106887018A (zh) * 2015-12-15 2017-06-23 株式会社理光 立体匹配方法、控制器和系统
CN106887021A (zh) * 2015-12-15 2017-06-23 株式会社理光 立体视频的立体匹配方法、控制器和系统
CN107155100A (zh) * 2017-06-20 2017-09-12 国家电网公司信息通信分公司 一种基于图像的立体匹配方法及装置
CN107506782A (zh) * 2017-07-06 2017-12-22 武汉市工程科学技术研究院 基于置信权重双边滤波的密集匹配方法
CN107767388A (zh) * 2017-11-01 2018-03-06 重庆邮电大学 一种结合云模型和水平集的图像分割方法
CN107917701A (zh) * 2017-12-28 2018-04-17 人加智能机器人技术(北京)有限公司 基于主动式双目立体视觉的测量方法及rgbd相机系统
CN108062765A (zh) * 2017-12-19 2018-05-22 上海兴芯微电子科技有限公司 双目图像处理方法、成像装置及电子设备
CN108303037A (zh) * 2018-01-31 2018-07-20 广东工业大学 一种基于点云分析的工件表面形状差异的检测方法及装置
CN109241855A (zh) * 2018-08-10 2019-01-18 西安交通大学 基于立体视觉的智能车辆可行驶区域探测方法
CN109255811A (zh) * 2018-07-18 2019-01-22 南京航空航天大学 一种基于可信度图视差优化的立体匹配方法
CN109360268A (zh) * 2018-09-29 2019-02-19 清华大学 重建动态物体的表面优化方法及装置
CN109903379A (zh) * 2019-03-05 2019-06-18 电子科技大学 一种基于点云优化采样的三维重建方法
CN109916322A (zh) * 2019-01-29 2019-06-21 同济大学 一种基于自适应窗口匹配的数字散斑全场形变测量方法
CN109934786A (zh) * 2019-03-14 2019-06-25 河北师范大学 一种图像的颜色校正方法、系统及终端设备
CN110533663A (zh) * 2018-05-25 2019-12-03 杭州海康威视数字技术股份有限公司 一种图像视差确定方法、装置、设备及系统
CN111197976A (zh) * 2019-12-25 2020-05-26 山东唐口煤业有限公司 一种顾及弱纹理区域多阶段匹配传播的三维重建方法
WO2020173194A1 (zh) * 2019-02-25 2020-09-03 广州视源电子科技股份有限公司 图像特征点的跟踪方法、匹配方法和坐标获取方法、装置
CN111627067A (zh) * 2019-02-28 2020-09-04 海信集团有限公司 一种双目相机的标定方法及车载设备
CN112767455A (zh) * 2021-01-08 2021-05-07 北京的卢深视科技有限公司 一种双目结构光的校准方法及系统
CN113674407A (zh) * 2021-07-15 2021-11-19 中国地质大学(武汉) 基于双目视觉图像的三维地形重建方法、装置及存储介质
CN115442515A (zh) * 2019-03-25 2022-12-06 华为技术有限公司 图像处理方法和设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862742B (zh) * 2017-12-21 2020-08-14 华中科技大学 一种基于多假设联合视图选择的稠密三维重建方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020025075A1 (en) * 2000-07-19 2002-02-28 Hong Jeong System for matching stereo image in real time
US6639596B1 (en) * 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
CN1920886A (zh) * 2006-09-14 2007-02-28 浙江大学 基于视频流的三维动态人脸表情建模方法
CN101625768A (zh) * 2009-07-23 2010-01-13 东南大学 一种基于立体视觉的三维人脸重建方法
CN101853508A (zh) * 2010-06-08 2010-10-06 浙江工业大学 基于方向集的泛化置信度传播的双目立体视觉匹配方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6639596B1 (en) * 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
US20020025075A1 (en) * 2000-07-19 2002-02-28 Hong Jeong System for matching stereo image in real time
CN1920886A (zh) * 2006-09-14 2007-02-28 浙江大学 基于视频流的三维动态人脸表情建模方法
CN101625768A (zh) * 2009-07-23 2010-01-13 东南大学 一种基于立体视觉的三维人脸重建方法
CN101853508A (zh) * 2010-06-08 2010-10-06 浙江工业大学 基于方向集的泛化置信度传播的双目立体视觉匹配方法

Cited By (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102111637A (zh) * 2011-03-29 2011-06-29 清华大学 生成立体视频深度图的方法及装置
CN102821290A (zh) * 2011-06-06 2012-12-12 索尼公司 图像处理设备、图像处理方法以及程序
CN102821290B (zh) * 2011-06-06 2016-07-06 索尼公司 图像处理设备以及图像处理方法
CN102333234A (zh) * 2011-10-28 2012-01-25 清华大学 一种双目立体视频状态信息的监测方法及装置
CN103310482A (zh) * 2012-03-12 2013-09-18 中兴通讯股份有限公司 一种三维重建方法及系统
CN103310482B (zh) * 2012-03-12 2016-08-10 山东智慧生活数据系统有限公司 一种三维重建方法及系统
CN102750694B (zh) * 2012-06-04 2014-09-10 清华大学 基于局部最优置信传播算法的双目视频深度图求取方法
CN102750694A (zh) * 2012-06-04 2012-10-24 清华大学 基于局部最优置信传播算法的双目视频深度图求取方法
CN102880444A (zh) * 2012-08-24 2013-01-16 浙江捷尚视觉科技有限公司 一种基于立体视觉运动场分析的打架斗殴检测方法
CN102930530A (zh) * 2012-09-26 2013-02-13 苏州工业职业技术学院 一种双视点图像的立体匹配方法
CN103971356B (zh) * 2013-02-04 2017-09-08 腾讯科技(深圳)有限公司 基于视差信息的街景图像目标分割方法及装置
CN103971356A (zh) * 2013-02-04 2014-08-06 腾讯科技(深圳)有限公司 基于视差信息的街景图像目标分割方法及装置
CN103106688A (zh) * 2013-02-20 2013-05-15 北京工业大学 基于双层配准方法的室内三维场景重建方法
CN103106688B (zh) * 2013-02-20 2016-04-27 北京工业大学 基于双层配准方法的室内三维场景重建方法
CN103279973A (zh) * 2013-06-13 2013-09-04 清华大学 基于混合并行的立体图像匹配系统
CN104427324A (zh) * 2013-09-02 2015-03-18 联咏科技股份有限公司 视差计算方法及其立体匹配装置
CN103868460A (zh) * 2014-03-13 2014-06-18 桂林电子科技大学 基于视差优化算法的双目立体视觉自动测量方法
CN103868460B (zh) * 2014-03-13 2016-10-05 桂林电子科技大学 基于视差优化算法的双目立体视觉自动测量方法
CN103955920A (zh) * 2014-04-14 2014-07-30 桂林电子科技大学 基于三维点云分割的双目视觉障碍物检测方法
CN103955920B (zh) * 2014-04-14 2017-04-12 桂林电子科技大学 基于三维点云分割的双目视觉障碍物检测方法
CN105096307A (zh) * 2014-05-08 2015-11-25 三菱电机株式会社 在成对的立体图像中检测物体的方法
CN105096307B (zh) * 2014-05-08 2018-01-02 三菱电机株式会社 在成对的立体图像中检测物体的方法
CN104112270A (zh) * 2014-05-14 2014-10-22 苏州科技学院 一种基于自适应权重多尺度窗口的任意点匹配算法
CN104112270B (zh) * 2014-05-14 2017-06-20 苏州科技学院 一种基于自适应权重多尺度窗口的任意点匹配算法
CN104200453B (zh) * 2014-09-15 2017-01-25 西安电子科技大学 基于图像分割和可信度的视差图像校正方法
CN104200453A (zh) * 2014-09-15 2014-12-10 西安电子科技大学 基于图像分割和可信度的视差图像校正方法
WO2016065578A1 (zh) * 2014-10-30 2016-05-06 北京大学深圳研究生院 一种全局视差估计方法和系统
CN104331890B (zh) * 2014-10-30 2017-06-16 北京大学深圳研究生院 一种全局视差估计方法和系统
CN104408710A (zh) * 2014-10-30 2015-03-11 北京大学深圳研究生院 一种全局视差估计方法和系统
CN104408710B (zh) * 2014-10-30 2017-05-24 北京大学深圳研究生院 一种全局视差估计方法和系统
CN104331890A (zh) * 2014-10-30 2015-02-04 北京大学深圳研究生院 一种全局视差估计方法和系统
CN104376593B (zh) * 2014-11-25 2017-04-05 四川大学 基于多窗口相位相关的影像三维重建方法
CN104376593A (zh) * 2014-11-25 2015-02-25 四川大学 基于多窗口相位相关的影像三维重建方法
CN104778748A (zh) * 2015-04-03 2015-07-15 四川大学 用于未校准图像的高精度三维重建
CN105277169B (zh) * 2015-09-25 2017-12-22 安霸半导体技术(上海)有限公司 基于图像分割的双目测距方法
CN105277169A (zh) * 2015-09-25 2016-01-27 安霸半导体技术(上海)有限公司 基于图像分割的双目测距方法
CN106887021A (zh) * 2015-12-15 2017-06-23 株式会社理光 立体视频的立体匹配方法、控制器和系统
CN106887021B (zh) * 2015-12-15 2020-11-24 株式会社理光 立体视频的立体匹配方法、控制器和系统
CN106887018A (zh) * 2015-12-15 2017-06-23 株式会社理光 立体匹配方法、控制器和系统
CN106887018B (zh) * 2015-12-15 2021-01-05 株式会社理光 立体匹配方法、控制器和系统
CN105574875B (zh) * 2015-12-18 2019-02-01 燕山大学 一种基于极曲线几何的鱼眼图像稠密立体匹配方法
CN105574875A (zh) * 2015-12-18 2016-05-11 燕山大学 一种基于极曲线几何的鱼眼图像稠密立体算法
CN105638613B (zh) * 2015-12-22 2018-12-28 中国农业大学 一种药剂喷施机器人系统及控制方法
CN105638613A (zh) * 2015-12-22 2016-06-08 中国农业大学 一种药剂喷施机器人系统及控制方法
CN105444696A (zh) * 2015-12-30 2016-03-30 天津大学 一种基于透视投影直线测量模型的双目匹配方法及其应用
CN105444696B (zh) * 2015-12-30 2018-04-24 天津大学 一种基于透视投影直线测量模型的双目匹配方法及其应用
CN105761270B (zh) * 2016-03-15 2018-11-27 杭州电子科技大学 一种基于外极线距离变换的树型滤波立体匹配方法
CN105761270A (zh) * 2016-03-15 2016-07-13 杭州电子科技大学 一种基于外极线距离变换的树型滤波立体匹配方法
CN106228605A (zh) * 2016-07-29 2016-12-14 东南大学 一种基于动态规划的立体匹配三维重建方法
CN106447661A (zh) * 2016-09-28 2017-02-22 深圳市优象计算技术有限公司 一种深度图快速生成方法
CN107155100A (zh) * 2017-06-20 2017-09-12 国家电网公司信息通信分公司 一种基于图像的立体匹配方法及装置
CN107155100B (zh) * 2017-06-20 2019-07-12 国家电网公司信息通信分公司 一种基于图像的立体匹配方法及装置
CN107506782A (zh) * 2017-07-06 2017-12-22 武汉市工程科学技术研究院 基于置信权重双边滤波的密集匹配方法
CN107506782B (zh) * 2017-07-06 2020-04-17 武汉市工程科学技术研究院 基于置信权重双边滤波的密集匹配方法
CN107767388B (zh) * 2017-11-01 2021-02-09 重庆邮电大学 一种结合云模型和水平集的图像分割方法
CN107767388A (zh) * 2017-11-01 2018-03-06 重庆邮电大学 一种结合云模型和水平集的图像分割方法
CN108062765A (zh) * 2017-12-19 2018-05-22 上海兴芯微电子科技有限公司 双目图像处理方法、成像装置及电子设备
CN107917701A (zh) * 2017-12-28 2018-04-17 人加智能机器人技术(北京)有限公司 基于主动式双目立体视觉的测量方法及rgbd相机系统
CN108303037B (zh) * 2018-01-31 2020-05-08 广东工业大学 一种基于点云分析的工件表面形状差异的检测方法及装置
CN108303037A (zh) * 2018-01-31 2018-07-20 广东工业大学 一种基于点云分析的工件表面形状差异的检测方法及装置
CN110533663B (zh) * 2018-05-25 2022-03-04 杭州海康威视数字技术股份有限公司 一种图像视差确定方法、装置、设备及系统
CN110533663A (zh) * 2018-05-25 2019-12-03 杭州海康威视数字技术股份有限公司 一种图像视差确定方法、装置、设备及系统
CN109255811B (zh) * 2018-07-18 2021-05-25 南京航空航天大学 一种基于可信度图视差优化的立体匹配方法
CN109255811A (zh) * 2018-07-18 2019-01-22 南京航空航天大学 一种基于可信度图视差优化的立体匹配方法
CN109241855A (zh) * 2018-08-10 2019-01-18 西安交通大学 基于立体视觉的智能车辆可行驶区域探测方法
CN109241855B (zh) * 2018-08-10 2022-02-11 西安交通大学 基于立体视觉的智能车辆可行驶区域探测方法
CN109360268B (zh) * 2018-09-29 2020-04-24 清华大学 重建动态物体的表面优化方法及装置
CN109360268A (zh) * 2018-09-29 2019-02-19 清华大学 重建动态物体的表面优化方法及装置
CN109916322A (zh) * 2019-01-29 2019-06-21 同济大学 一种基于自适应窗口匹配的数字散斑全场形变测量方法
CN109916322B (zh) * 2019-01-29 2020-02-14 同济大学 一种基于自适应窗口匹配的数字散斑全场形变测量方法
WO2020173194A1 (zh) * 2019-02-25 2020-09-03 广州视源电子科技股份有限公司 图像特征点的跟踪方法、匹配方法和坐标获取方法、装置
CN111627067B (zh) * 2019-02-28 2023-08-22 海信集团有限公司 一种双目相机的标定方法及车载设备
CN111627067A (zh) * 2019-02-28 2020-09-04 海信集团有限公司 一种双目相机的标定方法及车载设备
CN109903379A (zh) * 2019-03-05 2019-06-18 电子科技大学 一种基于点云优化采样的三维重建方法
CN109934786A (zh) * 2019-03-14 2019-06-25 河北师范大学 一种图像的颜色校正方法、系统及终端设备
CN109934786B (zh) * 2019-03-14 2023-03-17 河北师范大学 一种图像的颜色校正方法、系统及终端设备
CN115442515A (zh) * 2019-03-25 2022-12-06 华为技术有限公司 图像处理方法和设备
US11882357B2 (en) 2019-03-25 2024-01-23 Huawei Technologies Co., Ltd. Image display method and device
CN115442515B (zh) * 2019-03-25 2024-02-02 华为技术有限公司 图像处理方法和设备
CN111197976A (zh) * 2019-12-25 2020-05-26 山东唐口煤业有限公司 一种顾及弱纹理区域多阶段匹配传播的三维重建方法
CN112767455A (zh) * 2021-01-08 2021-05-07 北京的卢深视科技有限公司 一种双目结构光的校准方法及系统
CN112767455B (zh) * 2021-01-08 2022-09-02 合肥的卢深视科技有限公司 一种双目结构光的校准方法及系统
CN113674407A (zh) * 2021-07-15 2021-11-19 中国地质大学(武汉) 基于双目视觉图像的三维地形重建方法、装置及存储介质
CN113674407B (zh) * 2021-07-15 2024-02-13 中国地质大学(武汉) 基于双目视觉图像的三维地形重建方法、装置及存储介质

Also Published As

Publication number Publication date
CN101976455B (zh) 2012-02-01

Similar Documents

Publication Publication Date Title
CN101976455B (zh) 一种基于立体匹配的彩色图像三维重建方法
CN106228605A (zh) 一种基于动态规划的立体匹配三维重建方法
CN104299261B (zh) 人体三维成像方法及系统
CN104835158B (zh) 基于格雷码结构光与极线约束的三维点云获取方法
CN101887589A (zh) 一种基于立体视觉的实拍低纹理图像重建方法
CN110688905B (zh) 一种基于关键帧的三维物体检测与跟踪方法
CN103248911B (zh) 多视点视频中基于空时结合的虚拟视点绘制方法
CN104539928A (zh) 一种光栅立体印刷图像合成方法
CN101625768A (zh) 一种基于立体视觉的三维人脸重建方法
CN104809719A (zh) 基于单应性矩阵分割的虚拟视点合成的方法
CN101902657A (zh) 一种基于深度图分层的虚拟多视点图像的生成方法
CN110363838B (zh) 基于多球面相机模型的大视野图像三维重构优化方法
CN104299244A (zh) 基于单目相机的障碍物检测方法及装置
CN104794713B (zh) 基于arm和双目视觉的温室作物数字化成像方法
CN105160680A (zh) 一种基于结构光的无干扰深度相机的设计方法
CN104134188A (zh) 一种基于二维和三维摄像机融合的三维视觉信息获取方法
CN104182968A (zh) 宽基线多阵列光学探测系统模糊动目标分割方法
CN107330973A (zh) 一种基于多视角监督的单视角重建方法
CN103093460A (zh) 基于平行视差的移动相机虚拟阵列标定方法
CN111028281A (zh) 基于光场双目系统的深度信息的计算方法及装置
CN102750694B (zh) 基于局部最优置信传播算法的双目视频深度图求取方法
CN112907573B (zh) 一种基于3d卷积的深度补全方法
CN105574875B (zh) 一种基于极曲线几何的鱼眼图像稠密立体匹配方法
CN101383046B (zh) 一种基于图像的三维重建方法
CN112270701A (zh) 基于分组距离网络的视差预测方法、系统及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: JIANGSU JIEWANJIA TEXTILE CO., LTD.

Free format text: FORMER OWNER: SOWTHEAST UNIV.

Effective date: 20131018

Owner name: SOWTHEAST UNIV.

Effective date: 20131018

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 210096 NANJING, JIANGSU PROVINCE TO: 226600 NANTONG, JIANGSU PROVINCE

TR01 Transfer of patent right

Effective date of registration: 20131018

Address after: A group of the temple village of Haian town of Haian County, Jiangsu city of Nantong province 226600

Patentee after: Jiangsu Wanjia Textile Co., Ltd.

Patentee after: Southeast University

Address before: 210096 Jiangsu city Nanjing Province four pailou No. 2

Patentee before: Southeast University

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120201

Termination date: 20191008