CN100388319C - 三维主动视觉传感器的多视点姿态估计和自标定方法 - Google Patents

三维主动视觉传感器的多视点姿态估计和自标定方法 Download PDF

Info

Publication number
CN100388319C
CN100388319C CNB2006100149045A CN200610014904A CN100388319C CN 100388319 C CN100388319 C CN 100388319C CN B2006100149045 A CNB2006100149045 A CN B2006100149045A CN 200610014904 A CN200610014904 A CN 200610014904A CN 100388319 C CN100388319 C CN 100388319C
Authority
CN
China
Prior art keywords
image
center line
point
sensor
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CNB2006100149045A
Other languages
English (en)
Other versions
CN1888814A (zh
Inventor
彭翔
丁雅斌
田劲东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Esun Display Co., Ltd.
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CNB2006100149045A priority Critical patent/CN100388319C/zh
Publication of CN1888814A publication Critical patent/CN1888814A/zh
Application granted granted Critical
Publication of CN100388319C publication Critical patent/CN100388319C/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种三维主动视觉传感器的多视点姿态估计和自标定方法,属于三维数字成像及造型技术。所述的三维主动视觉传感器由位置相对固定的数字投影仪和摄像机组成。该方法的步骤为:采集物体纹理图像;向物体先后投射一组相互正交的条纹图,并采集相应的编码条纹图像;计算纹理图像的特征点二维坐标和编码条纹图像的相位值;利用相位到坐标的变换算法求取物体的特征点在数字投影仪的投射平面和摄像机的成像平面上的对应关系;变换视点,重复上述步骤,利用极线几何约束原理,建立优化方程,自动估计多视点位置姿态和自标定三维视觉传感器参数。该方法结果准确,且自动,特别适合于三维视觉传感器的现场多视点姿态估计和传感器参数自标定。

Description

三维主动视觉传感器的多视点姿态估计和自标定方法
技术领域
本发明涉及一种三维主动视觉传感器的多视点姿态估计和自标定方法,属于三维数字成像及造型技术。
背景技术
三维数字成像及造型(3DIM-3D Digital Imaging and Modeling)是近年来国际上活跃研究的一个新兴交叉学科领域。它被广泛的应用到反向工程,文物保护,医学诊断,工业检测以及虚拟现实等诸多方面。作为获取三维信息的主要手段之一,基于相位映射的三维主动视觉传感器具有速度快、分辨率高、非接触、和全场数据获取等优点而受到广泛关注和研究。求解传感器的运动方向,估计传感器在不同视点的位置姿态是一项重要工作。由于深度传感器的视场有限,并且受到观察方向和物体本身形状的限制,不可能一次得到描述物体形状的全部信息。在实际应用中,需要把物体放在传感器前的工作区域内,从一个视点得到描述物体形状的深度图像,然后移动传感器,在新的视点得到物体其他部分的深度信息。重复此过程,直到获得物体的全部深度信息为止。因此,准确提供各个视点的位置姿态信息是保证在统一坐标系中校准和融合多视点采集的深度图像数据的关键。
另外,在使用三维视觉传感器进行三维测量之前,传感器必须经过精确的标定以获得传感器的内部参数和传感器的结构参数。传统的标定方法自动化程度低,需要一个已知精确坐标的二维标定靶,和一个高精度的平移台沿二维标靶的垂直方向移动,以完成三维空间的标定。Hu等人(Optical Engineering,Vol.42,No.2,2003,pp487-493)和邵双运等(光学学报,Vol.25,No.2,2005,pp 203-206)都采用了该方法。对于这类方法,如果测量系统的结构参数发生变化,例如工作距离发生变化,则整个传感器必须重新进行标定,从而无法实现方便的、流动式的测量。而这对于需要经常性调整传感器位置来进行多视点测量的场合,频繁的重复标定使这样的传感器几乎很难实用。
因此,我们希望三维视觉传感器能够具有同步自动姿态估计和自动标定的功能,不再需要使用标准标定设备获取外部的三维数据。有了这样的能力,无论视觉传感器移动到任何视点,都能够自动得到该视点的姿态位置,并且自动完成标定,使三维测量可以不中断地进行下去。
近年来,对视觉传感器的自标定技术的研究受到很大关注,但这些可行方法中的多数是对被动视觉传感器标定方法(如立体视觉)和基于运动的深度感知的发展。而对基于相位映射的三维主动视觉传感器,标定方法大多是静态的人工操作,而且现有的摄像机自标定方法,如Zhang(IEEE Transactions on Robotics and Automation,Vol.12,No.1,1996,pp103-113),也不能直接应用在三维主动视觉传感器。
可对比的技术文献有下以五篇:
[1]发明专利:申请号02156599.6
[2]发明专利:申请号200510061174.x
[3]Hu Q.,Huang P.S.,Fu Q.,et al.Calibration of a three-dimensional shape measurementsystem[J].Opt.Eng.,2003,42(2):487-493
[4]邵双运,苏显渝,王华等.调制度测量轮廓术的系统标定.光学学报,2005,25(2):203-206
[5]Zhang Z.,Luong Q.,Faugeras O..Motion of an uncalibrated stereo rig:self-calibration andmetric reconstruction.IEEE Transactions on Robotics and Automation,1996,12(1):103-113
发明内容
本发明的目的在于提供一种三维主动视觉传感器的多视点姿态估计和自标定方法,该方法能够提高三维主动视觉传感器的多视点姿态估计的精度及同步自标定传感器参数,改善和提高了三维主动视觉传感器的实用性。
本发明是通过以下技术方案加以实现的:一种三维主动视觉传感器的多视点姿态估计和自标定方法,所述的视觉传感器是由数字投影仪和摄像机组成,它们位置相对固定,在测量范围内对放置物体进行测量,其特征在于包括以下步骤:
1.传感器在V1视点位置上,顺序进行如下投射和采集过程:
1)由摄像机采集被测物体的纹理图像,并存储到计算机中;
2)由计算机生成一组竖直条纹图像,用数字投影仪向被测物体投射,由于物体的深度变化导致编码条纹图像的产生,由摄像机采集竖直编码条纹图像,并存储到计算机中,然后通过条纹自动分析技术,解码获得物体的相对相位图像;
3)由计算机生成一幅位于图像的横向中心处且只有一条竖直线的图像,用数字投影仪将该图像投射到被测物体表面,并用摄像机采集后存储到计算机中,通过这条辅助的竖直中心线,将相对相位图像转换为绝对相位图像;
4)将竖直条纹图像,旋转90度成水平条纹图像,再由数字投影仪向被测物体投射,摄像机采集该水平编码条纹图像,存储到计算机中;
5)同样,将竖直中心线图像,旋转90度成水平中心线图像,用数字投影仪将该图像投射到被测物体表面,并用摄像机采集后存储到计算机中;
2.对步骤1得到的物体的纹理图像、竖直编码条纹图像、竖直中心线图像、水平编码条纹图像以及水平中心线图像,进行如下处理:
1)对纹理图像进行特征分析:提取物体特征点M的二维图像坐标,即特征点M在摄像机成像平面上的坐标(u,v);
2)对竖直编码条纹图像进行条纹自动分析:用FFT方法从变形条纹图中解调出主值范围内相位函数,然后用相位展开算法提取展开相位图Φu
3)对竖直中心线图像进行特征分析:对图像二值化后,提取中心线所占的二维图像坐标;
4)利用相位到坐标的变换算法,得到特征点在投影仪投射平面上的横向坐标,该算法为:先将竖直条纹图像的展开相位图Φu结合竖直中心线图像,变换为绝对相位图Φa Φ a ( x , y ) = Φ u ( x , y ) - Φ u k ( i , j ) , 其中Φu k(i,j)为中心线所在象素位置(i,j)的相位值;然后,得到任意特征点M在投影平面上的对应位置的横坐标u′, u ′ = Φ a M ( u , v ) 2 π p , 其中Φa M(u,v)为特征点M的绝对相位,p是投射条纹的空间周期;
5)同理,重复本步骤的2)、3)、4)过程,处理水平编码条纹图像以及水平中心线图像,得到任意特征点M在投影平面上的对应位置的纵坐标v′, v ′ = Φ a M ( u , v ) 2 π p , 此处的Φa M(u,v)通过处理水平编码条纹图像以及水平中心线图像得到;
6)至此,得到物体上任意特征点M在成像平面和投影平面上的对应坐标(u,v)和(u′,v′),为利用极线几何约束,作好数据的初始化准备;
3.在传感器测量范围内,且确保与前一个视点采集的图像有重合区域的前题下,自由移动传感器到新的视点V2,对物体进行投射和采集过程,重复步骤1和步骤2,在视点V2下,得到物体上任意特征点M在成像平面和投影平面上的对应坐标(u2,v2)和(u2′,v2′);
4.两个视点V1和V2,共有摄像机的2个成像平面,投影仪的2个投射平面,则空间任意点在4个平面上都有对应点,利用极线几何约束,即以极线方程: m ~ 2 T F m ~ 1 = 0 , 其中
Figure C20061001490400072
是成像平面和投影平面上的对应点的齐次坐标表示,F称为基本矩阵, F = K p - T [ t ] x R K c - 1 , 在考虑数据噪声影响下建立优化方程:
min Kc , Kp , R * , t * , R i , t i [ Σ j = 1 p ( m ~ 2 j T F 12 m ~ 1 j ) 2 + ( m ~ 3 j T F 13 m ~ 1 j ) 2 + ( m ~ 4 j T F 14 m ~ 1 j ) 2 + ( m ~ 3 j T F 23 m ~ 2 j ) 2 + ( m ~ 4 j T F 24 m ~ 2 j ) 2 + ( m ~ 4 j T F 34 m ~ 3 j ) 2 ] , 其中p表示特征点的个数,F12,F13,F14,F23,F24,F34表示两两平面之间的基本矩阵,
Figure C20061001490400076
是对应点的齐次坐标表示,得到两个视点分别相对于物体坐标系的姿态位置(R1,t1)和(R2,t2),传感器的内部参数(Kc,Kp),以及传感器的结构参数(R,t),其中求解Kc,Kp,R,t称为传感器参数的自标定,求解(R1,t1)和(R2,t2)称为视点姿态估计;
5.将多视点位置姿态进行存储,用于后续的多视点深度图像匹配及合成使用。
本发明的优点是:本发明首次将极线几何约束原理,应用到基于相位映射的三维主动视觉传感器的多视点姿态估计和同步自动标定传感器参数的研究上。提出了“相位-坐标”的变换方法,利用投射正交的条纹图像,快速寻找成像平面和投影平面上的对应点。在此基础上将极线约束应用于主动三维视觉传感器,建立了优化方程的数学模型,求解传感器在多视点运动姿态和三维传感器结构参数。本方法不需要辅助标定设备,可以提高标定效率,特别适合于三维视觉传感器的现场多视点姿态估计和自标定传感器参数。另外,该方法对诸如复杂物体的自动化检验、机器人定位等领域的应用都有重要意义。
附图说明
图1是实现本发明方法的三维主动视觉传感器布置示意图。图中,101为数字投影仪,103为摄像机,102为数字投影仪101的投影镜的出瞳P,104为摄像机103的成像透镜的入瞳E,调节杆105用来调节摄像机103的高度和角度,106为计算机。
图2是在立体视觉里极线几何约束图。
图3是竖直条纹图像。
图4是水平条纹图像。
图5是竖直中心线图像。
图6是水平中心线图像。
图7实例纹理图像。
图8是两个视点对物体进行测量的示意图。图中V1和V2表示两个视点,在第一个视点V1,摄像机和投影仪的成像平面和投影平面分别为I1,I2,在第二个视点V2,相应的成像平面和投影平面为I3,I4。C1和C3表示摄像机的入瞳,C2和C4表示投影仪的出瞳,mi(i=1,...,4),表示空间点M在4个平面上的对应点。(Rt)表示摄像机与投影仪之间的传感器结构参数,(Rltl)表示深度传感器由视点V1变换到视点V2时,摄像机的位置变换,(Rrtr)表示深度传感器由视点V1变换到视点V2时,投影仪的位置变换。
图9视点V1的采集得到的点云图像(深度图像)。
图10视点V2的采集得到的点云图像(深度图像)。
图11为变换到同一个坐标系下,匹配后的网格图像。
具体实施方式
下面对本发明方法做进一步详细说明。极线约束是立体视觉的重要原理之一。但是它不能直接应用到主动视觉传感器。本发明首次将极线几何约束原理,应用到基于相位映射的三维主动视觉传感器的多视点姿态估计和同步自动标定传感器参数上。如图2所示,在双目立体视觉里极线几何约束的图示。当两个摄像机同时对物体拍摄时,获得图像I1和I2。如果m1和m2是空间一点M在两图像上的投影点,称m1和m2为对应点。令C1和C2分别是两个摄像机的光心,点m2在线l2上,称l2为在图像I2上对应于点m1(位于图像I1上)的极线。点m1在线l1上,称l1为图像I1上对应于点m2的极线。令(Rt)为第二个摄像机相对于第一摄像机的位置变换,K1,K2分别为两摄像机的内参矩阵,R,K1,K2是3×3的矩阵,t是3×1的矩阵。由针孔模型推出
m ~ 2 T F m ~ 1 = 0 - - - ( 1 )
F = K 2 - T [ t ] x RK 1 - 1 - - - ( 2 )
公式(1)称为极线方程。
Figure C20061001490400084
是对应点m1和m2的齐次表示。m1的极线l2表示为 l 2 = F m ~ 1 = ( α , β , γ ) , m2的极线l1表示为 l 1 = F T m ~ 2 . 可以看出,只要知道空间任意点在两个摄像机成像平面上的对应点,就可以利用极线几何约束求出两个摄像机的内部参数K1,K2和两个摄像机的相对姿态位置Rt。
相位到坐标的变换:因为投影仪的投射过程是摄像机的成像过程的逆过程,因此,我们可以将极线几何约束原理应用到三维主动视觉传感器。而空间任意点在投影仪的投射平面和摄像机的成像平面上的对应点,可以通过相位到坐标的变换方法求出。我们利用5幅图像(物体的纹理图像,竖直编码条纹图像,竖直中心线图像,水平编码条纹图像以及水平中心线图像),就可以确定出空间任意点在投影仪的投射平面和摄像机的成像平面上的对应点。
纹理图像提供物体上特征点的二维图像坐标(u,v)。由竖直编码条纹图像和竖直中心线图像,计算绝对相位图像Φa Φ a ( x , y ) = Φ u ( x , y ) - Φ u k ( i , j ) , 进而得到特征点在投影仪投射平面上的横坐标u′, u ′ = Φ a M ( u , v ) 2 π p . 同理,由水平编码条纹图像和水平中心线图像,再次计算绝对相位图像Φa,进而得到特征点在投影仪投射平面上的纵坐标v′。从而得到空间任意点在投影仪的投射平面和摄像机的成像平面上的对应点(u,v)和(u′,v′)。
多视点姿态估计和自标定:KcKp,摄像机和投影仪的内部参数;Rt,摄像机和投影仪的相对位置关系;Riti,各个视点的运动参数。如图8,以两个视点为例。共有摄像机的2个成像平面,投影仪的2个投射平面。则空间任意点在4个平面上都有对应点,可以利用极线几何约束,在任意两个平面间的建立优化方程
min Kc , Kp , R * , t * , R , t [ Σ j = 1 p ( m ~ 2 j T F 12 m ~ 1 j ) 2 ] - - - ( 3 )
将4幅图像,两两组合后,6个优化方程(3)累加到一起组成方程组,用Levenberg-Marquart(LM)优化方法求解。可以得到每一个视点位置的姿态位置和传感器的参数。
本发明方法的具体步骤如下:
以实物(如图7)为例,在两个视点进行采集。求解出视点的姿态位置,同时标定传感器参数。
1.传感器在第1个视点位置上,顺序操作如下投射,采集过程:
1)由摄像机采集被测物体的纹理图像,并存储到计算机中(如图7);
2)由计算机生成一组竖直条纹图案(如图3)。用数字投影仪向被测物体投射,由于物体的深度变化导致编码条纹图像的产生,由摄像机采集竖直编码条纹图,并存储到计算机中。然后通过条纹自动分析技术解码可以获得物体的相对相位图像;
3)由计算机生成一幅位于图像的横向中心处且只有一条竖直线的图像(如图5)。用数字投影仪将该图像投射到被测物体表面,并用摄像机采集后存储到计算机中。通过这条辅助的中心线,将相对相位图像转换为绝对相位图像;
4)将竖直的条纹图案,旋转90度成水平,即正交方向(如图4)。再由数字投影仪向被测物体投射,摄像机采集水平编码条纹图像,存储到计算机中;
5)同样,将竖直中心线图像,旋转90度成水平中心线图像(如图6)。用数字投影仪将该图像投射到被测物体表面,并用摄像机采集后存储到计算机中;
2.对步骤1得到的物体的纹理图像,竖直编码条纹图像,竖直中心线图像,水平编码条纹图像以及水平中心线图像,然后对图像进行处理:
1)对纹理图像进行特征分析:提取物体特征点M的二维图像坐标,即特征点M在摄像机成像平面上的坐标(u,v);
2)对竖直编码条纹图像进行条纹自动分析:用FFT方法从变形条纹图中解调出主值范围内相位函数,然后用相位展开算法提取展开相位图Φu
3)对竖直中心线图像进行特征分析:对图像二值化后,提取中心线所占的二维图像坐标;
4)利用相位到坐标的变换算法,得到特征点在投影仪投射平面上的横向坐标。该算法为:先将竖直条纹图像的展开相位图Φu结合竖直中心线图像,变换为绝对相位图Φa Φ a ( x , y ) = Φ u ( x , y ) - Φ u k ( i , j ) , Φu k(i,j)为中心线所在象素位置(i,j)的相位值。然后,可以得到任意特征点M在投影平面上的对应位置的横坐标u′, u ′ = Φ a M ( u , v ) 2 π p , 其中Φa M(u,v)为特征点M的绝对相位,p是投射条纹的空间周期;
5)同理,重复本步骤的2)、3)、4)过程,处理水平相位图和水平中心线,可以得到任意特征点M在投影平面上的对应位置的纵坐标v′, v ′ = Φ a M ( u , v ) 2 π p , 此处的Φa M(u,v)通过处理水平编码条纹图以及水平中心线图像得到;
6)至此,得到物体上任意特征点M在成像平面和投影平面上的对应坐标(u,v)和(u′,v′),为利用极线几何约束,作好数据的初始化准备;
3.在传感器测量范围内,且确保与前一个视点采集的图像有重合区域的前题下,自由移动传感器到新的视点V2并对物体进行采集,重复步骤1和步骤2得到新的视点下,特征点在成像平面和投影平面上的对应坐标(u2,v2)和(u2′,v2′);
4.两个视点,共有摄像机的2个成像平面,投影仪的2个投射平面。则空间任意点在4个平面上都有对应点,利用极线几何约束,建立优化方程
min Kc , Kp , R * , t * , R i , t i [ Σ j = 1 p ( m ~ 2 j T F 12 m ~ 1 j ) 2 + ( m ~ 3 j T F 13 m ~ 1 j ) 2 + ( m ~ 4 j T F 14 m ~ 1 j ) 2 + ( m ~ 3 j T F 23 m ~ 2 j ) 2 + ( m ~ 4 j T F 24 m ~ 2 j ) 2 + ( m ~ 4 j T F 34 m ~ 3 j ) 2 ] - - - ( 4 )
(其中p表示特征点的个数,F12,F13,F14,F23,F24,F34表示两两平面之间的基本矩阵,
Figure C20061001490400112
是对应点的齐次坐标表示),得到两个视点分别相对于物体坐标系的姿态位置(R1,t1)和(R2,t2),传感器的内部参数(Kc,Kp),以及传感器的结构参数(R,t)。
5.存储两个视点位置姿态,以备后续的多视点深度图像匹配及合成使用。
实施例
实际设计的三维视觉传感器的结构如图1所示。101为数字投影仪,103为摄像机。102为数字投影仪101的投影镜的出瞳P,104为摄像机103的成像透镜的入瞳E。调节杆105用来调节摄像机103的高度和角度,106为计算机。
按照上面叙述的步骤,在两个视点对实物(如图7)进行采集。求解出视点的姿态位置,同时标定传感器参数。
标定的结果为:
(1)摄像机的内部参数: K c = 3564.36 - 5.99209 252.127 0 3552.63 229.525 0 0 1 pixel
投影仪的内部参数: K p = 3044.83 - 5.30216 366.425 0 3023.41 176.327 0 0 1 pixel
投影仪和摄像机之间的传感器结构参数
R * = 0.9896 0.0117 0.1437 - 0.0032 1 - 0.0585 - 0.1434 - 0.0524 0.9880 t * = - 15.0004 40.366 0.085
(2)视点1的姿态位置为
R 1 = 0.991861 - 0.0128653 0.126676 - 0.00945275 - 0.999577 - 0.0275033 0.126977 0.026082 - 0.991563 t 1 = - 26.3503 - 43.8632 1277.3
视点2的姿态位置为
R 2 = 0.999781 - 0.0118122 - 0.017255 - 0.0123243 - 0.999478 - 0.0298786 - 0.0168931 0.0300847 - 0.999405 t 2 = - 52.1421 - 41.2982 1332.25
(3)设定一个精确的三维标定参照物,检验标定的结果。在x,y,z三个方向的误差标准差分别为0.0927mm,0.0750mm和0.2562mm。
(4)对一个真实物体在两个视点测量,利用求得的视点姿态,将两个视点的图像,变换到同一坐标系内。图9和图10分别为两个视点的采集得到的点云图像(深度图像)。图11为变换到同一个坐标系下,匹配后的网格图像。

Claims (1)

1.一种三维主动视觉传感器的多视点姿态估计和自标定方法,所述的视觉传感器是由数字投影仪和摄像机组成,它们位置相对固定,在测量范围内对放置物体进行测量,其特征在于包括以下步骤:
1)在V1视点位置上,顺序进行如下投射和采集过程:
(1)摄像机采集被测物体的纹理图像,并存储到计算机中;
(2)由计算机生成一组竖直条纹图像,用数字投影仪向被测物体投射,由于物体的深度变化导致编码条纹图像的产生,由摄像机采集竖直编码条纹图像,并存储到计算机中,然后通过条纹自动分析技术,解码获得物体的相对相位图像;
(3)由计算机生成一幅位于图像的横向中心处且只有一条竖直线的图像,用数字投影仪将该图像投射到被测物体表面,并用摄像机采集后存储到计算机中,通过这条辅助的竖直中心线,将相对相位图像转换为绝对相位图像;
(4)将竖直条纹图像,旋转90度成水平条纹图像,再由数字投影仪向被测物体投射,摄像机采集该水平编码条纹图像,存储到计算机中;
(5)同样,将竖直中心线图像,旋转90度成水平中心线图像,用数字投影仪将该图像投射到被测物体表面,并用摄像机采集后存储到计算机中;
2)对步骤1)得到的物体的纹理图像、竖直编码条纹图像、竖直中心线图像、水平编码条纹图像以及水平中心线图像,进行如下处理:
(1)对纹理图像进行特征分析:提取物体特征点M的二维图像坐标,即特征点M在摄像机成像平面上的坐标(u,v);
(2)对竖直编码条纹图像进行条纹自动分析:用FFT方法从变形条纹图中解调出主值范围内相位函数,然后用相位展开算法提取展开相位图Φu
(3)对竖直中心线图像进行特征分析:对图像二值化后,提取中心线所占的二维图像坐标;
(4)利用相位到坐标的变换算法,得到特征点在投影仪投射平面上的横向坐标,该算法为:先将竖直条纹图像的展开相位图Φu结合竖直中心线图像,变换为绝对相位图Φa Φ a ( x , y ) = Φ u ( x , y ) - Φ u k ( i , j ) , 其中Φu k(i,j)为中心线所在象素位置(i,j)的相位值;然后,得到任意特征点M在投影平面上的对应位置的横坐标u′, u ′ = Φ a M ( u , v ) 2 π p ,
其中Φa M(u,v)为特征点M的绝对相位,p是投射条纹的空间周期;
(5)同理,重复本步骤的(2)、(3)、(4)过程,处理水平编码条纹图以及水平中心线图像,得到任意特征点M在投影平面上的对应位置的纵坐标v′, v ′ = Φ a M ( u , v ) 2 π p , 此处的Φa M(u,v)通过处理水平编码条纹图以及水平中心线图像得到;
(6)至此,得到物体上任意特征点M在成像平面和投影平面上的对应坐标(u,v)和(u′,v′),为利用极线几何约束,作好数据的初始化准备;
3)在传感器测量范围内,且确保与前一个视点采集的图像有重合区域的前题下,自由移动传感器到新的视点V2,对物体进行投射和采集过程,重复步骤1)和步骤2),在视点V2下,得到物体上任意特征点M在成像平面和投影平面上的对应坐标(u2,v2)和(u2′,v2′);
4)两个视点V1和V2,共有摄像机的2个成像平面,投影仪的2个投射平面,则空间任意点在4个平面上都有对应点,利用极线几何约束,即以极线方程: m ~ 2 T F m 1 ~ = 0 ,其中
Figure C2006100149040003C4
是成像平面和投影平面上的对应点的齐次坐标表示,F称为基本矩阵, F = K p - T [ t ] x R K c - 1 , 在考虑数据噪声影响下建立优化方程: min Kc , Kp , R * , t * , R i , t i [ Σ j = 1 p ( m ~ 2 j T F 12 m ~ 1 j ) 2 + ( m ~ 3 j T F 13 m ~ 1 j ) 2 + ( m ~ 4 j T F 14 m ~ 1 j ) 2 + ( m ~ 3 j T F 23 m ~ 2 j ) 2 + ( m ~ 4 j T F 24 m ~ 2 j ) 2 + ( m ~ 4 j T F 34 m ~ 3 j ) 2 ] , 其中p表示特征点的个数,F12,F13,F14,F23,F24,F34表示两两平面之间的基本矩阵,
Figure C2006100149040003C7
是对应点的齐次
坐标表示,得到两个视点分别相对于物体坐标系的姿态位置(R1,t1)和(R2,t2),传感器的内部参数(Kc,Kp),以及传感器的结构参数(R,t),其中求解Kc,Kp,R,t称为传感器参数的自标定,求解(R1,t1)和(R2,t2)称为视点姿态估计;
5)将多视点位置姿态进行存储,用于后续的多视点深度图像匹配及合成使用。
CNB2006100149045A 2006-07-25 2006-07-25 三维主动视觉传感器的多视点姿态估计和自标定方法 Active CN100388319C (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNB2006100149045A CN100388319C (zh) 2006-07-25 2006-07-25 三维主动视觉传感器的多视点姿态估计和自标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNB2006100149045A CN100388319C (zh) 2006-07-25 2006-07-25 三维主动视觉传感器的多视点姿态估计和自标定方法

Publications (2)

Publication Number Publication Date
CN1888814A CN1888814A (zh) 2007-01-03
CN100388319C true CN100388319C (zh) 2008-05-14

Family

ID=37578103

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2006100149045A Active CN100388319C (zh) 2006-07-25 2006-07-25 三维主动视觉传感器的多视点姿态估计和自标定方法

Country Status (1)

Country Link
CN (1) CN100388319C (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101630406B (zh) * 2008-07-14 2011-12-28 华为终端有限公司 摄像机的标定方法及摄像机标定装置

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100468457C (zh) * 2007-02-08 2009-03-11 深圳大学 一种深度像匹配方法
JP4362537B2 (ja) * 2007-06-06 2009-11-11 シャープ株式会社 画像処理装置、画像形成装置、画像送信装置、画像読取装置、画像処理システム、画像処理方法、画像処理プログラムおよびその記録媒体
CN101350101B (zh) * 2008-09-09 2011-12-07 北京航空航天大学 多幅深度图像自动配准方法
CN101582165B (zh) * 2009-06-29 2011-11-16 浙江大学 基于灰度图像与空间深度数据的摄像机阵列标定算法
US8558873B2 (en) * 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
CN102155909B (zh) * 2010-12-17 2012-12-19 华中科技大学 基于扫描电镜的纳米尺度三维形貌测量方法
CN102055982B (zh) * 2011-01-13 2012-06-27 浙江大学 三维视频编解码方法及装置
CN102411779B (zh) * 2011-08-19 2014-12-10 中国科学院西安光学精密机械研究所 基于图像的物体模型匹配姿态测量方法
TWI493963B (zh) * 2011-11-01 2015-07-21 Acer Inc 影像產生裝置及影像調整方法
CN102654391B (zh) * 2012-01-17 2014-08-20 深圳大学 基于光束平差原理的条纹投影三维测量系统及其标定方法
CN102622751A (zh) * 2012-02-28 2012-08-01 南京理工大学常熟研究院有限公司 一种三维照相机的图像处理方法
CN103267491B (zh) * 2012-07-17 2016-01-20 深圳大学 自动获取物体表面完整三维数据的方法及系统
CN103884272B (zh) * 2012-12-20 2016-10-05 联想(北京)有限公司 一种物体位置确定方法、装置及移动电子设备
CN103471500B (zh) * 2013-06-05 2016-09-21 江南大学 一种单目机器视觉中平面坐标与空间三维坐标点的转换方法
CN103974048B (zh) 2014-04-28 2016-05-04 京东方科技集团股份有限公司 控制可穿戴设备投影的方法及装置、可穿戴设备
CN104864807B (zh) * 2015-04-10 2017-11-10 深圳大学 一种基于主动双目视觉的机械手手眼标定方法
CN106546192B (zh) * 2016-10-12 2019-08-06 上海大学 一种高反射自由曲面非接触测量方法和系统
CN107270810B (zh) * 2017-04-28 2018-06-22 深圳大学 多方位投影的投影仪标定方法及装置
CN107622262A (zh) * 2017-11-06 2018-01-23 深圳市唯特视科技有限公司 一种基于重叠肢体和自适应视点选择的姿势估计方法
JP7180432B2 (ja) * 2019-02-14 2022-11-30 コニカミノルタ株式会社 データ処理装置、データ処理方法及びプログラム
CN111739145A (zh) * 2019-03-19 2020-10-02 上海汽车集团股份有限公司 一种汽车模型显示系统
CN110889845B (zh) * 2019-11-29 2022-11-11 深圳市商汤科技有限公司 测量方法及装置、电子设备和存储介质
CN111351473B (zh) * 2020-04-27 2022-03-04 华中科技大学无锡研究院 一种基于机器人的视点规划方法、装置及测量系统
KR20220170090A (ko) * 2021-06-22 2022-12-29 에스케이하이닉스 주식회사 멀티-뷰 이미지에서 노이즈 감소를 위한 장치 및 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1508511A (zh) * 2002-12-17 2004-06-30 北京航空航天大学 一种结构光视觉传感器的标定方法
CN1508512A (zh) * 2002-12-17 2004-06-30 北京航空航天大学 一种多视觉传感器检测系统全局标定方法
CN1512455A (zh) * 2002-12-27 2004-07-14 中国科学院自动化研究所 基于主动视觉的物体三维模型快速获取方法
CN1595057A (zh) * 2004-07-13 2005-03-16 深圳大学 基于空间正交条纹投影的多分辨三维数字成像方法
US20050123188A1 (en) * 2001-11-23 2005-06-09 Esa Leikas Method and system for the calibration of a computer vision system
US20050180623A1 (en) * 1996-10-25 2005-08-18 Frederick Mueller Method and apparatus for scanning three-dimensional objects
CN1746615A (zh) * 2005-10-19 2006-03-15 浙江工业大学 结构光三维系统相对参数的单图像自定标方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050180623A1 (en) * 1996-10-25 2005-08-18 Frederick Mueller Method and apparatus for scanning three-dimensional objects
US20050123188A1 (en) * 2001-11-23 2005-06-09 Esa Leikas Method and system for the calibration of a computer vision system
CN1508511A (zh) * 2002-12-17 2004-06-30 北京航空航天大学 一种结构光视觉传感器的标定方法
CN1508512A (zh) * 2002-12-17 2004-06-30 北京航空航天大学 一种多视觉传感器检测系统全局标定方法
CN1512455A (zh) * 2002-12-27 2004-07-14 中国科学院自动化研究所 基于主动视觉的物体三维模型快速获取方法
CN1595057A (zh) * 2004-07-13 2005-03-16 深圳大学 基于空间正交条纹投影的多分辨三维数字成像方法
CN1746615A (zh) * 2005-10-19 2006-03-15 浙江工业大学 结构光三维系统相对参数的单图像自定标方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
一种新的基于主动视觉系统的摄像机自标定方法. 雷成,吴福朝,胡占义.计算机学报,第23卷第11期. 2000
一种新的基于主动视觉系统的摄像机自标定方法. 雷成,吴福朝,胡占义.计算机学报,第23卷第11期. 2000 *
基于主动视觉的摄像机线性自标定方法. 裴明涛,贾云得.北京理工大学学报,第26卷第1期. 2006
基于主动视觉的摄像机线性自标定方法. 裴明涛,贾云得.北京理工大学学报,第26卷第1期. 2006 *
视觉基础矩阵的统一表示. 吴福朝,于洪川,袁波,韦穗.计算机研究与发展,第36卷第6期. 1999
视觉基础矩阵的统一表示. 吴福朝,于洪川,袁波,韦穗.计算机研究与发展,第36卷第6期. 1999 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101630406B (zh) * 2008-07-14 2011-12-28 华为终端有限公司 摄像机的标定方法及摄像机标定装置

Also Published As

Publication number Publication date
CN1888814A (zh) 2007-01-03

Similar Documents

Publication Publication Date Title
CN100388319C (zh) 三维主动视觉传感器的多视点姿态估计和自标定方法
CN105469405B (zh) 基于视觉测程的同时定位与地图构建方法
CN102155923B (zh) 基于立体靶标的拼接测量方法及系统
CN103759716B (zh) 基于机械臂末端单目视觉的动态目标位置和姿态测量方法
CN107067470A (zh) 基于红外热像仪与深度相机的便携式三维温度场重建系统
CN105261060A (zh) 基于点云压缩和惯性导航的移动场景实时三维重构方法
CN101149836B (zh) 一种三维重构的双摄像机标定方法
CN104616292A (zh) 基于全局单应矩阵的单目视觉测量方法
CN103606147B (zh) 多台不共视场量测相机的坐标系转换标定方法
CN111735439B (zh) 地图构建方法、装置和计算机可读存储介质
CN102032878A (zh) 基于双目立体视觉测量系统的精确在线测量方法
CN1971206A (zh) 基于一维靶标的双目视觉传感器校准方法
Yang et al. Flexible and accurate implementation of a binocular structured light system
Ahmadabadian et al. An automatic 3D reconstruction system for texture-less objects
CN102654391A (zh) 基于光束平差原理的条纹投影三维测量系统及其标定方法
KR20220025028A (ko) 시각적 비콘 기반의 비콘 맵 구축 방법, 장치
CN105115560A (zh) 一种船舱舱容的非接触测量方法
CN108413917A (zh) 非接触式三维测量系统、非接触式三维测量方法及测量装置
CN106500625A (zh) 一种远心立体视觉测量装置及其应用于物体三维形貌微米级精度测量的方法
Azevedo et al. 3D object reconstruction from uncalibrated images using an off-the-shelf camera
Xiao et al. Large-scale structured light 3D shape measurement with reverse photography
CN113034571A (zh) 一种基于视觉—惯性的物体三维尺寸测量方法
Yin et al. Calibration strategy of optical measurement network for large-scale and shell-like objects
CN100370220C (zh) 结构光三维系统相对参数的单图像自定标方法
Chane et al. Registration of arbitrary multi-view 3D acquisitions

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Assignee: Shenzhen Esun Display Co., Ltd.

Assignor: Shenzhen University

Contract record no.: 2010440020139

Denomination of invention: Multi-viewpoint attitude estimating and self-calibrating method for three-dimensional active vision sensor

Granted publication date: 20080514

License type: Exclusive License

Open date: 20070103

Record date: 20100819

DD01 Delivery of document by public notice

Addressee: Gao Juan

Document name: Notification that Application Deemed not to be Proposed

ASS Succession or assignment of patent right

Owner name: SHENZHEN ESUN DISPLAY CO., LTD.

Free format text: FORMER OWNER: SHENZHEN UNIVERSITY

Effective date: 20121213

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 518060 SHENZHEN, GUANGDONG PROVINCE TO: 518048 SHENZHEN, GUANGDONG PROVINCE

TR01 Transfer of patent right

Effective date of registration: 20121213

Address after: 518048, B301, three floor, No. 4001, Fu Qiang Road, Futian District, Guangdong, Shenzhen, Shenzhen, China, AB

Patentee after: Shenzhen Esun Display Co., Ltd.

Address before: Nanshan District Nanyou 518060 Shenzhen Road, Guangdong No. 2336

Patentee before: Shenzhen University

CP02 Change in the address of a patent holder
CP02 Change in the address of a patent holder

Address after: 518133 23rd floor, Yishang science and technology creative building, Jiaan South Road, Haiwang community Central District, Xin'an street, Bao'an District, Shenzhen City, Guangdong Province

Patentee after: SHENZHEN ESUN DISPLAY Co.,Ltd.

Address before: 518048 B301, 3rd floor, block AB, 4001 Fuqiang Road, Futian District, Shenzhen City, Guangdong Province

Patentee before: SHENZHEN ESUN DISPLAY Co.,Ltd.