CN102404595A - 可提供3d节目拍摄指导的极线校正方法 - Google Patents

可提供3d节目拍摄指导的极线校正方法 Download PDF

Info

Publication number
CN102404595A
CN102404595A CN2011103533875A CN201110353387A CN102404595A CN 102404595 A CN102404595 A CN 102404595A CN 2011103533875 A CN2011103533875 A CN 2011103533875A CN 201110353387 A CN201110353387 A CN 201110353387A CN 102404595 A CN102404595 A CN 102404595A
Authority
CN
China
Prior art keywords
point
pixel
individual
individuality
video camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011103533875A
Other languages
English (en)
Other versions
CN102404595B (zh
Inventor
周军
姚达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN2011103533875A priority Critical patent/CN102404595B/zh
Publication of CN102404595A publication Critical patent/CN102404595A/zh
Application granted granted Critical
Publication of CN102404595B publication Critical patent/CN102404595B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开一种可提供3D节目拍摄指导的极线校正方法,该方法利用遗传一致性估计方法来消除误匹配获取一致最大内点集,将基础矩阵参数化为包含摄像机姿态信息的参量,通过匹配点对坐标建立误差方程,进而采用最小二乘法求解摄像机参量,利用所得的摄像机参量直接求解极线校正矩阵,并为现场3D拍摄提供如何调整摄像机姿态的信息。本发明既能够应用于3D节目后期处理又能够为3D节目现场拍摄提供摄像机姿态调整指导,并有效地降低了极线校正后立体图像对的扭曲变形。整个极线校正方法的实现过程简单,可广泛应用于立体匹配、深度图提取和三维跟踪等重要领域。

Description

可提供3D节目拍摄指导的极线校正方法
技术领域
本发明涉及的是一种立体视觉技术领域的极线校正方法,具体是一种既能够应用于3D节目后期处理又能够为3D节目现场拍摄提供摄像机姿态调整指导的极线校正方法。
背景技术
近几年,随着《阿凡达》等3D电影的狂热,立体视觉技术引起了国内外学者的广泛研究。在立体视觉实际应用研究中,为了能够舒适地观赏3D节目,对立体图像对进行极线校正不可避免。所谓极线校正,就是指通过对左、右视图像各进行一次射影变换,使得图像投影到一个公共的平行于两个摄像机基线的空间平面,从而使两幅图像对应的极线在同一行水平线上,并且不存在垂直视差。极线校正可以有效地将对应点搜索范围从二维空间降至一维扫描线,在立体匹配、深度提取和三维跟踪等立体视觉关键技术中得到广泛应用。
经过对现有技术文献的检索发现,John Mallon等人于2005年在《Image and VisionComputing(图像和视觉计算)》上发表的“Projective rectification from the fundamentalmatrix(基础矩阵引导的射影校正)”中给出了一种仅依赖于基本矩阵的方法,该方法根据基本矩阵求出极点,然后将极点旋转到X轴,接着将极点投影到无穷远处,最后使得两幅图像对应的极线在同一条扫描线上。这种方法必须依赖于基础矩阵,当基础矩阵估计地不够准确时,校正的精度会受到明显的影响。即使能够得到高精度的基础矩阵,也未必能够得到好的校正结果,导致校正结果出现较大的扭曲变形,原因是图像校正的评价准则与基础矩阵的准则完全不相同。而且这种方法不能够为3D节目现场拍摄提供摄像机姿态调整指导。
又经检索发现,Min Zhu等人于2007年在《IEEE International Conference onIntegration Technology(IEEE集成技术国际会议)》上发表的“Stereo Vision RectificationBased on Epipolar Lines Match and Three Variables Projective Matrix(基于极线匹配和3变量射影矩阵的立体图像校正方法)”中提出了一种简化的极线校正方法,该方法仅需要3对匹配极线既可以估计出左右相机的投影矩阵。这种方法依赖于立体图像中极线的匹配精度,当匹配中存在误匹配时候,会导致校正结果往往出现较大的扭曲变形。而且这种方法也不能够为3D节目现场拍摄提供摄像机姿态调整指导,仅适合在3D节目的后期处理中使用。
发明内容
本发明的目的在于克服现有技术中的上述不足,提出一种既能够应用于3D节目后期处理又能够为3D节目现场拍摄提供摄像机姿态调整指导的极线校正方法,并有效地降低了极线校正后立体图像对的扭曲变形。该方法利用遗传一致性估计(GCE)方法来消除误匹配获取一致最大内点集,将基础矩阵参数化为包含摄像机姿态信息的参量,通过匹配点对坐标建立误差方程进而采用最小二乘法求解摄像机参量,利用所得的摄像机参量直接求解极线校正矩阵,并为现场3D拍摄提供如何调整摄像机姿态的信息,可广泛应用于立体匹配、深度图提取和三维跟踪等领域。
本发明是通过以下技术方案实现的,本发明包括以下步骤:
第一步,分别对立体图像对中的左视图和右视图进行SIFT特征点提取,并对得到的两组SIFT特征点进行匹配,得到初始匹配点对集。
第二步,利用遗传一致性估计(GCE)算法剔除初始匹配点对集中的误匹配点对,得到满足同一基本矩阵的一致最大内点集。
所述的GCE算法剔除误匹配处理,包括以下步骤:
1)在初始匹配点对集中选择P个个体组成初始种群,得到每个个体包含的内点数,且至少有一个个体中包含的内点数大于或者等于相关阈值Tin
所述的个体包含从初始匹配点对集中随机选择的s组非奇异匹配点对。
所述的s取值范围是:区间[7,10]上的整数。
所述的内点是Sampson误差小于内点阈值Thr的匹配点对。
所述的内点阈值Thr的取值范围是:[0.5,2]。
所述的Sampson误差,是:
D ij = ( ( x Li ) T F j x Ri ) 2 ( F j x Ri ) 1 2 + ( F j x Ri ) 2 2 + ( F j T x Li ) 1 2 + ( F j T x Li ) 2 2 ,
其中:Dij是初始匹配点对集中第i组匹配点对(xLi,xRi)对于第j个个体Ij的Sampson误差,1≤i≤N,N是初始匹配点对集中匹配点对的总数目。xLi=(xLi,yLi,1)T为第i组匹配点对中左视图匹配点的齐次坐标,其中(xLi,yLi)T是以左视图左上角像素点为原点建立的坐标系中的像素坐标;xRi=(xRi,yRi,1)T为第i组匹配点对中右视图匹配点的齐次坐标,其中(xRi,yRi)T是以右视图左上角像素点为原点建立的坐标系中的像素坐标。Fj是利用第j个个体Ij所包含的s对匹配点对进行归一化直接线性变化处理所得到的基本矩阵估计实例,1≤j≤P。
所述的相关阈值Tin的取值范围是:[2s,4s]
所述的s为个体所包含的匹配点对数
所述的P的取值范围为:[s+2,10(s+2)]。
2)将初始种群随机划分为个体数目都为s+2的子群,并在每个子群中选择内点数最大和次大的两个个体作为母体;
3)将每个子群中的两个母体随机交换q组匹配点对生成2个子体,子体与母体一起共形成4个中间个体。q为区间[1,s-1]上的随机整数。
4)保留每个子群4个中间个体中内点数最大的个体作为变异算子的候选个体。
5)对每个子群中的候选个体均按照正确数据点的可能分布执行s+1种变异处理形成变异个体,并对变异个体进行调整。经过调整后变异个体与候选个体一起组成新的种群。
所述的变异处理,是:分别在每个候选个体划分的内外点中选择由m组内点和s-m组外点组成的变异个体,0≤m≤s。每个候选个体都生成s+1个变异个体。
所述的外点是对称转移误差大于等于内点阈值Thr的匹配点对。
所述的对变异个体进行调整,是:对每个候选个体生成的变异个体,逐个与判别个体进行比较,当且仅当判别个体的内点数大于变异个体的内点数,则将变异个体置换为判别个体。
所述的判别个体包含从候选个体的内点中随机选择的s组非奇异匹配点对。
6)重复执行2)-5)共G次后,此时种群中内点数最大的个体的内点就是满足同一基本矩阵的一致最大内点集。
所述的G,是:
G = log ( 1 - C ) P · log ( 1 - ( μ N ) s ) ,
其中:P是种群中个体的数目,μ是第G次执行完5)后得到的内点数最大的个体的内点数,N是初始匹配点对集中匹配点对的总点对数,C是第G次执行完5)后由s个正确匹配点对组成的个体至少出现过一次的概率。
所述的概率C取值范围是:[0.9,0.99]。
第三步,基于一致最大内点集的所有匹配点对,利用Levenberg-Marquardt(LM)非线性最小二乘法,最小化总sampson误差E,估计摄像机的旋转角度和像素焦距。
设一致最大内点集中的所有匹配点对(xINLj,xINRj),1≤j≤M,M为一致最大内点集中匹配点对的个数。构造总sampson误差E:
E = Σ j = 1 M ( ( x INLj ) 2 F opt x INRj ) 2 ( F opt x INRj ) 1 2 + ( F opt x INRj ) 2 2 + ( F opt x INLj ) 1 2 + ( F opt x INLj ) 2 2 s . t . | | F opt | | F 2 = 1
其中Fopt为优化的对象,‖·‖F表示矩阵的Frobenius范数。Fopt与旋转角度以及像素焦距的关系如下:
F opt = K R - T R LR T [ t ] x K L - 1
K i = f i 0 w i / 2 0 f i h i / 2 0 0 1 , fi∈[(wi+hi)/3,3(wi+hi)],i=L,R
R LR = 1 0 0 0 cos ( θ ) - sin ( θ ) 0 sin ( θ ) cos ( θ ) cos ( α ) - sin ( α ) 0 sin ( α ) cos ( α ) 0 0 0 1 cos ( β ) 0 - sin ( β ) 0 1 0 sin ( β ) 0 cos ( β )
Figure BDA0000107070080000046
其中wL、wR分别为左、右视图以像素为单位的宽度,hL、hR为左、右视图的以像素为单位的高度,fL、fR为左、右摄像机以像素为单位的焦距。RLR为右摄像机相对于左摄像机的旋转矩阵,表征左摄像机绕Y轴旋转旋转β、绕Z轴旋转旋转α、绕X轴旋转旋转θ后与右摄像机平行。t为右摄像机中心相对于左摄像机的单位偏移方向,表征左摄像机绕Y轴旋转旋转
Figure BDA0000107070080000047
绕Z轴旋转旋转-γ后,右摄像机的中心位于左摄像机的X轴上。[t]x为3维矢量t=[t1 t2 t3]T确定的反对称矩阵:
[ t ] x = 0 - t 3 t 2 t 3 0 - t 1 - t 2 t 1 0
LM优化时的初始值取为[wL+hL,wR+hR,0,0,0,0,0],并沿着总误差E减小的方向移动,当总误差E不变时,
Figure BDA0000107070080000053
的值即为摄像机参数的最优估计。其中像素焦距fL、fR可以为立体视频拍摄现场调整两摄像机的焦距提供参考信息,而β、α、θ、
Figure BDA0000107070080000054
γ可以在立体视频拍摄现场提供两摄像机姿态的调整信息。如果需要在后期处理中进行极线校正,只需要继续执行第四步。
第四步,利用获得的摄像机参数信息
Figure BDA0000107070080000055
构造极线校正矩阵HL、HR,分别对左、右视图像进行极线校正。
所述的极线校正矩阵HL、HR的构造,是
H i = K Ni R i K i - 1
K i = f i 0 w i / 2 0 f i h i / 2 0 0 1 , K Ni = ( f L + f R ) / 2 0 w i / 2 0 ( f L + f R ) / 2 h i / 2 0 0 1 , i = L , R
Figure BDA0000107070080000059
R R = R L 1 0 0 0 cos ( θ ) - sin ( θ ) 0 sin ( θ ) cos ( θ ) cos ( α ) - sin ( α ) 0 sin ( α ) cos ( α ) 0 0 0 1 cos ( β ) 0 - sin ( β ) 0 1 0 sin ( β ) 0 cos ( β )
所述的对左、右视图像进行极线校正,其过程如下:
以对左视图进行极线校正为例,右视图操作类似。设极线校正前后的图像分别为
Figure BDA00001070700800000511
校正后图像
Figure BDA00001070700800000512
中的像素点
Figure BDA00001070700800000513
与校正前图像
Figure BDA00001070700800000514
的对应像素点满足如下关系:
x L after = H i x L befor
其中像素点 x L after = ( x L after , y L after , 1 ) T , 是以校正后的图像
Figure BDA00001070700800000519
左上角像素点为原点建立的坐标系中的像素坐标;像素点
Figure BDA00001070700800000520
Figure BDA00001070700800000521
是以校正前的图像
Figure BDA0000107070080000061
左上角像素点为原点建立的坐标系中的像素坐标。
与现有技术相比,本发明的有益效果是能够在初始匹配点对中存在大量误匹配的情况下精确快速稳定地估计出摄像机的旋转角度以及像素焦距等信息,以为拍摄现场以及后期处理提供调整指导。本发明的主要创新点为:1)结合遗传算法的全局最优性,利用GCE算法剔除误匹配,为摄像机参数估计提供一致最大内点集数据基础;2)利用摄像机的旋转角度以及像素焦距等信息参数化基本矩阵,并利用Levenberg-Marquardt(LM)非线性最小二乘法进行最优化,从而获取旋转角度以及像素焦距等参数的最优估计。
本发明的GCE通过控制初始种群的形成并进一步采用子群的方式同时在解空间内的多个区域进行搜索,与现有技术中RANSAC等鲁棒估计方法每次只在单个区域搜索形成鲜明对比,能够在误匹配点对大量存在的情况下快速实现摄像机参数的估计;本发明的GCE利用变异算子根据内点的可能分布进行有目的的搜索,能够在全局意义上更准确地找出一致最大内点集,与现有技术中RANSAC等鲁棒估计方法每次随机选择搜索区域的盲目性形成鲜明对比,显著提高了摄像机参数估计的估计精度和鲁棒性,从而保证极线校正的结果不会出现较大扭曲变形。
本发明将基本矩阵参数化为摄像机的旋转角度以及像素焦距等参量,通过匹配点对坐标建立sampson误差方程,利用最小二乘法求解摄像机参量。本发明既可以利用所得的摄像机参量直接构造极线校正矩阵,亦可以为现场3D拍摄提供如何调整摄像机姿态指导,弥补了传统方法只能够用于后期处理的不足。
附图说明
图1为本发明实施例的方法流程图;
图2为本发明实施例尺度空间中的高斯金字塔和DOG金字塔结构图;
图3为本发明实施例尺度空间极值检测示意图;
图4为本发明实施例特征描述子示意图;
图5为本发明实施例摄像机坐标系示意图;
图6为本发明实施例GCE与RANSAC等鲁棒估计方法的估计误差对比;
图7为本发明实施例校正前的左、右视图;
图8为本发明实施例Loop and Zhang方法的校正结果;
图9为本发明实施例Hartley方法的校正结果;
图10为本发明实施例John Mallon方法的校正结果;
图11为本发明实施例的校正结果。
具体实施方式
下面对本发明的实施例作详细说明,本实施例给出了本发明技术方案详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1所示,本发明的极线校正方法包括SIFT特征点的提取与匹配并获取初始匹配点对集、利用GCE算法消除误匹配并提取一致最大内点集、非线性最小二乘法提取摄像机旋转角度和像素焦距等参数、利用摄像机参数构造极线校正矩阵这几个部分。
第一步,对输入的两幅图进行SIFT特征点的提取与匹配,生成初始匹配点对集A={(xLi,xRi)|1≤i≤N}。N是初始匹配点对集中匹配点对的总数目。xLi=(xLi,yLi,1)T为第i组匹配点对中左视图匹配点的齐次坐标,其中(xLi,yLi)T是以左视图左上角像素点为原点建立的坐标系中的像素坐标;xRi=(xRi,yRi,1)T为第i组匹配点对中右视图匹配点的齐次坐标,其中(xRi,yRi)T是以右视图左上角像素点为原点建立的坐标系中的像素坐标。
SIFT特征点的提取与匹配过程如下:
1)建立高斯金字塔
高斯金字塔有o阶,每一阶有l层尺度图像。以建立(o,l)=(4,5)的高斯金字塔为例。第1阶的第1层是放大2倍的原始图像,在同一阶中相邻两层的尺度因子比例系数是k,则第1阶第2层的尺度因子是kσ,然后其它层以此类推则可;第2阶的第1层由第一阶的中间层尺度图像进行子抽样获得,其尺度因子是k2σ,然后第2阶的第2层的尺度因子是第1层的k倍即k3σ。第3阶的第1层由第2阶的中间层尺度图像进行子抽样获得。其它阶的构成以此类推。其结构如图2左半边所示。对于二维图像I(x,y)在不同尺度下的尺度空间表示L(x,y,σ)可由图像I(x,y)与高斯核G(x,y,σ)的卷积得到:
L(x,y,σ)=G(x,y,σ)*I(x,y)
其中 G ( x , y , σ ) = 1 2 πσ 2 e - ( x 2 + y 2 ) / 2 σ 2 , 一般取σ=1.6。
2)建立DOG金字塔
DOG金字塔通过高斯金字塔中相邻尺度空间函数相减即可。DOG金字塔的第1层的尺度因子与高斯金字塔的第1层是一致的,其它阶也一样。如图2右半边所示。
3)DOG空间的极值检测
为了检测到DOG空间的最大值和最小值,需要比较DOG尺度空间图像中的每个像素与它邻近26个像素的值,在图3中,标记为叉号的像素若比相邻26个像素的DOG值都大或都小,则该点将作为一个SIFT特征点,记下它的位置和对应阶数和层数。
4)确定特征点的主方向
根据特征点的阶数和层数在高斯金字塔中找到对应的图像层,并以特征点的位置为中心,在9×9的正方形邻域内统计所有点的梯度的大小和方向,并用梯度直方图统计邻域像素的梯度方向。梯度直方图的范围是0°~360°,其中每10度为一个方向,总共36个方向。统计得到的直方图峰值所在的方向就代表了该特征点的主方向。其中正方形邻域内点的梯度的大小m(x,y,σ)和方向计算如下:
m ( x , y , σ ) = ( L ( x + 1 , y , σ ) - L ( x - 1 , y , σ ) ) 2 + ( L ( x , y + 1 , σ ) - L ( x , y - 1 , σ ) ) 2
θ(x,y,σ)=arctan((L(x,y+1,σ)-L(x,y-1,σ))/(L(x+1,y,σ)-L(x-1,y,σ)))
5)确定特征点的特征描述子
为了确保旋转不变性,首先将坐标轴旋转为关键点的方向。以关键点为中心,取8×8的窗口,将这个窗口切成2×2的子窗口,如图4所示。
图4左边部分的中心代表当前关键点的位置,每一个小格代表了与关键点同尺度,并且是在关键点邻域内的一个像素,小格中箭头的方向代表该像素的梯度方向,箭头的长度代表梯度的模的大小,圆圈代表了高斯加权的范围。图4右边部分2×2的窗口的每个子窗口由其上4×4的小块组成。在每个4×4的小块上计算8个方向的梯度方向直方图,统计每个方向的累加值,即形成一个种子点。一个特征点由2×2共4个种子点组成,每个种子点包含8个方向的信息,这样每个特征点的特征描述子就有4×8=32个维度。
6)特征点的匹配
首先将左视图和右视图中所有特征点的特征描述子进行长度归一化,接着对左视图中的每个特征点在右视图中寻找相似性度量最大的两个特征点。如果次大的相似性度量除以最大的相似性度量少于某个比例阈值0.8,则认为左视图中的特征点与右视图中最相似的特征点为一对匹配点。两特征点间的相似性度量Sd如下:
Sd(Desc1,Desc2)=Desc1T·Desc2
其中Desc1和Desc2代表以32维列向量表示的特征描述子。Sd值越大表明两特征点越相似。
第二步,在初始点对集A上利用基于遗传算法的遗传一致性估计GCE算法,对初始匹配点对集进行剔除误匹配处理,得到满足同一基本矩阵的一致最大内点集。利用GCE算法提取最大内点集的具体实现如下:
1.初始化。
确定种群规模P=20,置遗传代数G=∞。在初始匹配点对集A中随机选择非奇异的s=8组点对构成一个个体,并以此方法生成P个个体组成初始种群,并保证初始种群中包含有内点数大于或等于给定相关阈值Tin=24的个体。个体的内点数按如下方法确定:
1)通过归一化直接线性变化方法求得与个体S对应的基本矩阵F。
设提供的匹配点对为
Figure BDA0000107070080000091
1≤i≤s, x Li ′ = ( x Li ′ , y Li ′ , 1 ) T , x Ri ′ = ( x Ri ′ , y Ri ′ , 1 ) T ,
Figure BDA0000107070080000094
分别是以左视图和右视图左上角像素点为原点建立的坐标系中的像素坐标。s为提供的匹配点对数目。
a)计算左视图的归一化矩阵TL
T L = 1 / f L 0 - u L / f L 0 1 / f L - v L / f L 0 0 1 , u L = 1 s Σ i = 1 s x Li ′ , v L = 1 s Σ i = 1 s y Li ′ , fL=WL+FL/2
WL为左视图以像素为单位的宽度,FL为左视图的以像素为单位的长度,fL为左视图的尺度归一化因子
b)计算右视图的归一化矩阵TR
T R = 1 / f R 0 - u R / f R 0 1 / f R - v R / f R 0 0 1 , u R = 1 s Σ i = 1 s x Ri ′ , v R = 1 s Σ i = 1 s y Ri ′ , fR=WR+FR/2
WR为右视图以像素为单位的宽度,FR为右视图的以像素为单位的长度,fR为右视图的尺度归一化因子
c)归一化匹配点对:
x NLi = T L x Li ′ , x NRi = T R x Ri ′
xNLi为左视图匹配点的归一化齐次坐标,xNRi为右视图匹配点的归一化齐次坐标
d)奇异值分解:
设xNLi=(xNLi,yNLi,1)T,xNRi=(xNRi,yNRi,1)T
并令 A i = x NLi x NRi T y NLi x NRi T x NRi T , 构造系数矩阵 A = A 1 . . . A s , 奇异值分解
A=UDVT且对角矩阵D=diag(d1,d2,d3)的对角元素满足d1≥d2≥d3;
e)解除归一化求取基本矩阵:
Figure BDA0000107070080000104
则由提供的匹配点对所得的基本矩阵估计实例为
F = T L - 1 F ~ T R
2)判断匹配点对是否为个体S(或基本矩阵H)的内点。
为判断初始匹配点对集A中的第i组匹配点对(xLi,xRi)是否为个体S的内点,按照下式计算对称转移误差Di
D i = ( ( x Li ) T Fx Ri ) 2 ( Fx Ri ) 1 2 + ( Fx Ri ) 2 2 + ( Fx Li ) 1 2 + ( Fx Li ) 2 2
如果对称转移误差Di小于内点阈值Thr=1时,则第i组点对为个体S的内点,否则为个体S的外点。按此方法统计点对集A中个体S的内点即可获得个体S的内点数。
2.种群进化
2.1.种群中P个个体随机平均划分为P/(s+2)=20/10=2个子群。
2.2.对每个子群选择内点数最大的2个个体作为母体。
2.3.对每个子群的2个母体,随机交换q组匹配点对生成2个子体,子体与母体一起共形成4个中间个体。q为区间[1,7]上的随机整数。
2.4.保留每个子群4个中间个体中内点数最大的个体作为变异算子的候选个体。
2.5.每个子群中的候选个体将初始匹配点对集A划分为内点和外点。在内点和外点中分别随机选择m组点对和8-m组点对来组成变异个体。其中m的取值为区间[0,8]的整数,故变异方法共有9种,形成9个变异个体。对每个候选个体生成的变异个体,逐个与判别个体进行比较,当且仅当判别个体的内点数大于变异个体的内点数,则将变异个体置换为判别个体。其中判别个体包含从候选个体的内点中随机选择的s组非奇异匹配点对。经过调整后所有的变异个体与候选个体一起组成新一代种群。
3.根据新一代种群中内点数最大的个体Smax,按照下式更新遗传代数G。
G = log ( 1 - C ) P · log ( 1 - ( μ N ) 4 ) ,
其中P为种群的个体数,μ为个体Smax的内点数,N为初始匹配点对集A的总点对数,C为经过G代遗传后由4个正确匹配点对组成的个体至少出现过一次的概率。C值预先设置为0.99。如已执行G代种群进化,则输出个体Z的内点作为一致最大内点集。否则返回2,在新一代种群的基础上执行种群进化。
第三步,基于一致最大内点集的所有匹配点对,利用Levenberg-Marquardt(LM)非线性最小二乘法,最小化总sampson误差E,估计摄像机的旋转角度和像素焦距。
设一致最大内点集中的所有匹配点对(xINLj,xINRj),1≤j≤M,M为一致最大内点集中匹配点对的个数。构造总sampson误差E:
E = Σ j = 1 M ( ( x INLj ) 2 F opt x INRj ) 2 ( F opt x INRj ) 1 2 + ( F opt x INRj ) 2 2 + ( F opt x INLj ) 1 2 + ( F opt x INLj ) 2 2 s . t . | | F opt | | F 2 = 1
其中Fopt为优化的对象, ‖·‖F表示矩阵的Frobenius范数。Fopt与旋转角度以及像素焦距的关系如下:
F opt = K R - T R LR T [ t ] x K L - 1
K i = f i 0 w i / 2 0 f i h i / 2 0 0 1 , fi∈[(wi+hi)/3,3(wi+hi)],i=L,R
R LR = 1 0 0 0 cos ( θ ) - sin ( θ ) 0 sin ( θ ) cos ( θ ) cos ( α ) - sin ( α ) 0 sin ( α ) cos ( α ) 0 0 0 1 cos ( β ) 0 - sin ( β ) 0 1 0 sin ( β ) 0 cos ( β )
Figure BDA0000107070080000124
其中wL、wR分别为左、右视图以像素为单位的宽度,hL、hR为左、右视图的以像素为单位的高度,fL、fR为左、右摄像机以像素为单位的焦距。RLR为右摄像机相对于左摄像机的旋转矩阵,表征左摄像机绕Y轴旋转旋转β、绕Z轴旋转旋转α、绕X轴旋转旋转θ后与右摄像机平行(如图5)。t为右摄像机中心相对于左摄像机的单位偏移方向,表征左摄像机绕Y轴旋转旋转
Figure BDA0000107070080000125
绕Z轴旋转旋转-γ后,右摄像机的中心位于左摄像机的X轴上。[t]x为3维矢量t=[t1 t2 t3]T确定的反对称矩阵:
[ t ] x = 0 - t 3 t 2 t 3 0 - t 1 - t 2 t 1 0
LM优化时
Figure BDA0000107070080000127
的初始值取为[wL+hL,wR+hR,0,0,0,0,0],并沿着总误差E减小的方向移动,当总误差E不变时,
Figure BDA0000107070080000128
的值即为摄像机参数的的最优估计。其中像素焦距fL、fR可以为立体视频拍摄现场调整两摄像机的焦距提供参考信息,而β、α、θ、γ可以在立体视频拍摄现场提供两摄像机姿态的调整信息。如果需要在后期处理中进行极线校正,只需要继续执行第四步。
第四步,利用获得的摄像机参数信息
Figure BDA00001070700800001210
构造极线校正矩阵HL、HR,分别对左、右视图像进行极线校正。极线校正矩阵HL、HR的构造如下:
H i = K Ni R i K i - 1
K i = f i 0 w i / 2 0 f i h i / 2 0 0 1 , K Ni = ( f L + f R ) / 2 0 w i / 2 0 ( f L + f R ) / 2 h i / 2 0 0 1 , i = L , R
Figure BDA0000107070080000134
R R = R L 1 0 0 0 cos ( θ ) - sin ( θ ) 0 sin ( θ ) cos ( θ ) cos ( α ) - sin ( α ) 0 sin ( α ) cos ( α ) 0 0 0 1 cos ( β ) 0 - sin ( β ) 0 1 0 sin ( β ) 0 cos ( β )
对左、右视图像进行极线校正的过程如下:
以对左视图进行极线校正为例,右视图操作类似。设极线校正前后的图像分别为
Figure BDA0000107070080000136
校正后图像
Figure BDA0000107070080000137
中的像素点
Figure BDA0000107070080000138
与校正前图像
Figure BDA0000107070080000139
的对应像素点
Figure BDA00001070700800001310
满足如下关系:
x L after = H i x L befor
其中像素点 x L after = ( x L after , y L after , 1 ) T ,
Figure BDA00001070700800001313
是以校正后的图像
Figure BDA00001070700800001314
左上角像素点为原点建立的坐标系中的像素坐标;像素点
Figure BDA00001070700800001315
Figure BDA00001070700800001316
是以校正前的图像
Figure BDA00001070700800001317
左上角像素点为原点建立的坐标系中的像素坐标。
利用Middlebury网站(http://vision.middlebury.edu/stereo/data/)提供的“2006datasets”数据库做实验,通过SIFT获得左右视图的匹配点对,并从中随机选择300组形成初始数据集A。由于是随机组合而成,故数据集A中包含有错误匹配点对。估计误差采用一致最大内点集的平均Sampson误差以及标准差来表征。图6显示出GCE的平均估计误差以及标准差都低于M-估计、LMedS、RANSAC、MLESAC、MAPSAC等鲁棒估计方法。这也侧面证明了本方法对摄像机旋转角度、像素焦距等参数的估计具有较高的精度,能够在3D拍摄现场提供有效的调整指导。
利用Vision Systems Group(http://www.vsg.dcu.ie/code.html)的“ProjectiveRectification”立体图像数据,比较Loop and Zhang(Computing rectifyinghomographies for stereo vision)、Hartley(Theory and practice of projectiverectification)、John Mallon三者与本方法的极线校正结果。从图7中可以看出校正前图中得极线走向相对于水平方向有较小的夹角,而从各种校正方法的结果来看,图10中John Mallon的校正结果扭曲变形尚可接受,图8和图9的中Loop and Zhang以及Hartley的校正方法给图像引入了较大的扭曲变形,本方法(图11)仅引入微小的扭曲变形。
由以上实施例可以看出,本发明方法利用遗传一致性估计(GCE)方法来消除误匹配获取一致最大内点集,将基础矩阵参数化为包含摄像机姿态信息的参量,通过匹配点对坐标建立误差方程进而采用最小二乘法求解摄像机参量,利用所得的摄像机参量直接求解极线校正矩阵,并为现场3D拍摄提供如何调整摄像机姿态的信息。遗传一致性估计(GCE)方法将遗传方法原理与基本矩阵的估计结合起来,通过利用遗传方法的内含并行性和全局最优性采用子群的方式同时搜索解空间内的多个区域,并利用变异算子根据内点的可能分布进行有目的的搜索,来快速精确地剔除误匹配,提高了摄像机参量的提取精度和稳定性,减小了极线校正带来的扭曲变形。本发明既能够应用于3D节目后期处理又能够为3D节目现场拍摄提供摄像机姿态调整指导,并有效地降低了极线校正后立体图像对的扭曲变形。可广泛应用于立体匹配、深度图提取和三维跟踪等重要领域。

Claims (10)

1.一种可提供3D节目拍摄指导的极线校正方法,其特征在于,包括以下步骤:
第一步,分别对立体图像对中的左视图和右视图进行SIFT特征点提取,并对得到的两组SIFT特征点进行匹配,得到初始匹配点对集;
第二步,利用遗传一致性估计算法剔除初始匹配点对集中的误匹配点对,得到满足同一基本矩阵的一致最大内点集;
第三步,基于一致最大内点集的所有匹配点对,利用LM非线性最小二乘法,最小化总sampson误差E,估计摄像机的旋转角度和像素焦距;
第四步,利用获得的摄像机参数信息构造极线校正矩阵HL、HR,分别对左、右视图像进行极线校正。
2.如权利要求1所述的可提供3D节目拍摄指导的极线校正方法,其特征在于,所述利用遗传一致性估计算法剔除初始匹配点对集中的误匹配点对,得到满足同一基本矩阵的一致最大内点集,包括以下步骤:
1)在初始匹配点对集中选择P个个体组成初始种群,每个个体由随机选择的s组匹配点对构成,利用相关阈值Tin的控制初始种群的形成,使得初始种群中包含内点数大于等于阈值Tin的个体;
2)将初始种群随机划分为个体数目都为s+2的子群,并在每个子群中选择内点数最大和次大的两个个体作为母体;
3)将每个子群中的两个母体随机交换q组匹配点对生成2个子体,子体与母体一起共形成4个中间个体,q为区间[1,s-1]上的随机整数;
4)保留每个子群4个中间个体中内点数最大的个体作为变异算子的候选个体;
5)对每个子群中的候选个体均按照正确数据点的可能分布执行s+1种变异处理形成变异个体,并对变异个体进行调整,经过调整后变异个体与候选个体一起组成新的种群;
6)重复上述的2)-5),满足遗传代数的进化后,输出内点数最大的个体的内点作为一致最大内点集。
3.如权利要求2所述的可提供3D节目拍摄指导的极线校正方法,其特征在于,所述每个个体由随机选择的s组匹配点对构成,其中s取值范围是:区间[7,10]上的整数。
4.如权利要求2所述的可提供3D节目拍摄指导的极线校正方法,其特征在于,所述在初始匹配点对集中选择P个个体组成初始种群,其中P取值范围为[s+2,10(s+2)],s取值范围是区间[7,10]上的整数。
5.如权利要求2所述的可提供3D节目拍摄指导的极线校正方法,其特征在于,所述利用相关阈值Tin的控制初始种群的形成,其中Tin取值范围为[2s,4s],s取值范围是区间[7,10]上的整数。
6.如权利要求2所述的可提供3D节目拍摄指导的极线校正方法,其特征在于,所述的变异处理,是指:分别在每个候选个体划分的内外点中选择由m组内点和s-m组外点组成的变异个体,0≤m≤s,s取值范围是区间[7,10]上的整数,每个候选个体都生成s+1个变异个体。
7.如权利要求2所述的可提供3D节目拍摄指导的极线校正方法,其特征在于,所述的对变异个体进行调整,是指:对每个候选个体生成的变异个体,逐个与判别个体进行比较,当且仅当判别个体的内点数大于变异个体的内点数,则将变异个体置换为判别个体,所述的判别个体包含从候选个体的内点中随机选择的s组非奇异匹配点对。
8.如权利要求2所述的可提供3D节目拍摄指导的极线校正方法,其特征在于,所述利用LM非线性最小二乘法,最小化总sampson误差E,估计摄像机的旋转角度和像素焦距,具体如下:
设一致最大内点集中的所有匹配点对(xINLj,xINRj),1≤j≤M,M为一致最大内点集中匹配点对的个数,构造总sampson误差E:
E = Σ j = 1 M ( ( x INLj ) 2 F opt x INRj ) 2 ( F opt x INRj ) 1 2 + ( F opt x INRj ) 2 2 + ( F opt x INLj ) 1 2 + ( F opt x INLj ) 2 2 s . t . | | F opt | | F 2 = 1
其中Fopt为优化的对象,‖·‖F表示矩阵的Frobenius范数,Fopt与旋转角度以及像素焦距的关系如下:
F opt = K R - T R LR T [ t ] x K L - 1
K i = f i 0 w i / 2 0 f i h i / 2 0 0 1 , fi∈[(wi+hi)/3,3(wi+hi)],i=L,R
R LR = 1 0 0 0 cos ( θ ) - sin ( θ ) 0 sin ( θ ) cos ( θ ) cos ( α ) - sin ( α ) 0 sin ( α ) cos ( α ) 0 0 0 1 cos ( β ) 0 - sin ( β ) 0 1 0 sin ( β ) 0 cos ( β )
Figure FDA0000107070070000034
其中wL、wR分别为左、右视图以像素为单位的宽度,hL、hR为左、右视图的以像素为单位的高度,fL、fR为左、右摄像机以像素为单位的焦距,RLR为右摄像机相对于左摄像机的旋转矩阵,表征左摄像机绕Y轴旋转旋转β、绕Z轴旋转旋转α、绕X轴旋转旋转θ后与右摄像机平行,t为右摄像机中心相对于左摄像机的单位偏移方向,表征左摄像机绕Y轴旋转旋转
Figure FDA0000107070070000035
绕Z轴旋转旋转-γ后,右摄像机的中心位于左摄像机的X轴上;[t]x为3维矢量t=[t1 t2 t3]T确定的反对称矩阵:
[ t ] x = 0 - t 3 t 2 t 3 0 - t 1 - t 2 t 1 0
LM优化时
Figure FDA0000107070070000037
的初始值取为[wL+hL,wR+hR,0,0,0,0,0],并沿着总误差E减小的方向移动,当总误差E不变时,
Figure FDA0000107070070000038
的值即为摄像机参数的最优估计。
9.如权利要求8所述的可提供3D节目拍摄指导的极线校正方法,其特征在于,所述的摄像机参数
Figure FDA0000107070070000039
为现场3D拍摄指导调整摄像机姿态,其中像素焦距fL、fR为立体视频拍摄现场调整两摄像机的焦距提供参考信息,而β、α、θ、
Figure FDA00001070700700000310
γ在立体视频拍摄现场提供两摄像机姿态的调整信息。
10.如权利要求8所述的可提供3D节目拍摄指导的极线校正方法,其特征在于,所述摄像机参数
Figure FDA00001070700700000311
在后处理中直接求解极线校正矩阵,进而对立体图像进行校正,按如下方式构造左、右视图像的极线校正矩阵:
H i = K Ni R i K i - 1
K i = f i 0 w i / 2 0 f i h i / 2 0 0 1 , K Ni = ( f L + f R ) / 2 0 w i / 2 0 ( f L + f R ) / 2 h i / 2 0 0 1 , i = L , R
Figure FDA0000107070070000044
R R = R L 1 0 0 0 cos ( θ ) - sin ( θ ) 0 sin ( θ ) cos ( θ ) cos ( α ) - sin ( α ) 0 sin ( α ) cos ( α ) 0 0 0 1 cos ( β ) 0 - sin ( β ) 0 1 0 sin ( β ) 0 cos ( β )
对左视图像进行极线校正的过程如下:
设极线校正前后的图像分别为校正后图像
Figure FDA0000107070070000047
中的像素点与校正前图像
Figure FDA0000107070070000049
的对应像素点满足如下关系:
x L after = H i x L befor
其中像素点 x L after = ( x L after , y L after , 1 ) T ,
Figure FDA00001070700700000413
是以校正后的图像
Figure FDA00001070700700000414
左上角像素点为原点建立的坐标系中的像素坐标;像素点
Figure FDA00001070700700000415
是以校正前的图像
Figure FDA00001070700700000417
左上角像素点为原点建立的坐标系中的像素坐标;
对右视图像进行极线校正的过程与上述对左视图像进行极线校正的过程相同。
CN2011103533875A 2011-08-16 2011-11-10 可提供3d节目拍摄指导的极线校正方法 Active CN102404595B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2011103533875A CN102404595B (zh) 2011-08-16 2011-11-10 可提供3d节目拍摄指导的极线校正方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201110234452.2 2011-08-16
CN201110234452 2011-08-16
CN2011103533875A CN102404595B (zh) 2011-08-16 2011-11-10 可提供3d节目拍摄指导的极线校正方法

Publications (2)

Publication Number Publication Date
CN102404595A true CN102404595A (zh) 2012-04-04
CN102404595B CN102404595B (zh) 2013-11-20

Family

ID=45886303

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011103533875A Active CN102404595B (zh) 2011-08-16 2011-11-10 可提供3d节目拍摄指导的极线校正方法

Country Status (1)

Country Link
CN (1) CN102404595B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102780906A (zh) * 2012-05-31 2012-11-14 新奥特(北京)视频技术有限公司 一种通过平铺左右眼图像校正3d图像的方法
CN102905147A (zh) * 2012-09-03 2013-01-30 上海立体数码科技发展有限公司 立体图像校正方法及装置
CN103686126A (zh) * 2012-09-06 2014-03-26 现代摩比斯株式会社 立体图像处理装置与方法
CN103927760A (zh) * 2014-04-30 2014-07-16 重庆环视科技有限公司 立体视觉自动颜色标定系统
CN104091308A (zh) * 2014-06-12 2014-10-08 华南理工大学 一种减少图像畸变的极线校正方法
CN104677277A (zh) * 2015-02-16 2015-06-03 武汉天远视科技有限责任公司 一种测量物体几何属性或距离的方法及系统
CN104685868A (zh) * 2012-10-05 2015-06-03 高通股份有限公司 用于校准成像装置的方法及设备
CN104954776A (zh) * 2014-03-24 2015-09-30 宏达国际电子股份有限公司 图像校正方法及其图像撷取装置
CN108597016A (zh) * 2018-04-19 2018-09-28 西安交通大学 基于相关熵的Torr-M-Estimators基础矩阵鲁棒估计方法
US10506213B2 (en) 2014-11-20 2019-12-10 Samsung Electronics Co., Ltd. Method and apparatus for calibrating image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101236653A (zh) * 2008-03-03 2008-08-06 华为技术有限公司 图像校正方法及系统
CN101325724A (zh) * 2008-07-23 2008-12-17 四川虹微技术有限公司 一种立体图像对的极线校正方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101236653A (zh) * 2008-03-03 2008-08-06 华为技术有限公司 图像校正方法及系统
CN101325724A (zh) * 2008-07-23 2008-12-17 四川虹微技术有限公司 一种立体图像对的极线校正方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DA YAO ETC: "Homegraphy Matrix Genetic Consensus Estimation Algorithm", 《ICALIP》 *
朱庆生等: "立体图像对的极线校正", 《计算机工程与设计》 *
邓荣峰等: "基于SIFT特征匹配的稳健图像拼接算法", 《计算机应用》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102780906A (zh) * 2012-05-31 2012-11-14 新奥特(北京)视频技术有限公司 一种通过平铺左右眼图像校正3d图像的方法
CN102905147A (zh) * 2012-09-03 2013-01-30 上海立体数码科技发展有限公司 立体图像校正方法及装置
CN103686126A (zh) * 2012-09-06 2014-03-26 现代摩比斯株式会社 立体图像处理装置与方法
KR20150067285A (ko) * 2012-10-05 2015-06-17 퀄컴 인코포레이티드 이미징 디바이스를 캘리브레이션하는 방법 및 장치
KR102223584B1 (ko) 2012-10-05 2021-03-04 퀄컴 인코포레이티드 이미징 디바이스를 캘리브레이션하는 방법 및 장치
US10104364B2 (en) 2012-10-05 2018-10-16 Qualcomm Incorporated Method and apparatus for bus sharing by multiple imaging sensors
CN104685868A (zh) * 2012-10-05 2015-06-03 高通股份有限公司 用于校准成像装置的方法及设备
CN104954776A (zh) * 2014-03-24 2015-09-30 宏达国际电子股份有限公司 图像校正方法及其图像撷取装置
US9883118B2 (en) 2014-03-24 2018-01-30 Htc Corporation Method of image correction and image capturing device thereof
CN103927760A (zh) * 2014-04-30 2014-07-16 重庆环视科技有限公司 立体视觉自动颜色标定系统
CN104091308B (zh) * 2014-06-12 2017-02-15 华南理工大学 一种减少图像畸变的极线校正方法
CN104091308A (zh) * 2014-06-12 2014-10-08 华南理工大学 一种减少图像畸变的极线校正方法
US10506213B2 (en) 2014-11-20 2019-12-10 Samsung Electronics Co., Ltd. Method and apparatus for calibrating image
US11140374B2 (en) 2014-11-20 2021-10-05 Samsung Electronics Co., Ltd. Method and apparatus for calibrating image
CN104677277A (zh) * 2015-02-16 2015-06-03 武汉天远视科技有限责任公司 一种测量物体几何属性或距离的方法及系统
CN108597016A (zh) * 2018-04-19 2018-09-28 西安交通大学 基于相关熵的Torr-M-Estimators基础矩阵鲁棒估计方法

Also Published As

Publication number Publication date
CN102404595B (zh) 2013-11-20

Similar Documents

Publication Publication Date Title
CN102404595B (zh) 可提供3d节目拍摄指导的极线校正方法
Zhuang et al. 3-D-laser-based scene measurement and place recognition for mobile robots in dynamic indoor environments
CN103426186B (zh) 一种改进的surf快速匹配方法
CN103123727B (zh) 即时定位与地图构建方法和设备
CN103075998B (zh) 一种单目空间目标测距测角方法
CN101763632B (zh) 摄像机标定的方法和装置
CN107741234A (zh) 一种基于视觉的离线地图构建及定位方法
CN106595659A (zh) 城市复杂环境下多无人机视觉slam的地图融合方法
CN102697508A (zh) 采用单目视觉的三维重建来进行步态识别的方法
CN104536009A (zh) 一种激光红外复合的地面建筑物识别及导航方法
CN103278138A (zh) 一种复杂结构薄部件三维位置及姿态的测量方法
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN103093459A (zh) 利用机载LiDAR点云数据辅助影像匹配的方法
Han A noniterative approach for the quick alignment of multistation unregistered LiDAR point clouds
Zuo et al. Multimodal localization: Stereo over LiDAR map
CN111664845B (zh) 交通标志定位、视觉地图制作方法及装置、定位系统
Ren et al. High precision calibration algorithm for binocular stereo vision camera using deep reinforcement learning
Parmehr et al. Automatic registration of optical imagery with 3d lidar data using local combined mutual information
CN102175227B (zh) 一种探测车在卫星图像上的快速定位方法
Hoang et al. Motion estimation based on two corresponding points and angular deviation optimization
Sheng et al. Mobile robot localization and map building based on laser ranging and PTAM
Hu et al. R-CNN based 3D object detection for autonomous driving
Chenchen et al. A camera calibration method for obstacle distance measurement based on monocular vision
Brink Stereo vision for simultaneous localization and mapping
CN112815911B (zh) 基于三目视觉的输电线路交跨距离测量方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant