CN107063190A - 面向定标面阵相机影像的位姿高精度直接估计方法 - Google Patents
面向定标面阵相机影像的位姿高精度直接估计方法 Download PDFInfo
- Publication number
- CN107063190A CN107063190A CN201710120261.0A CN201710120261A CN107063190A CN 107063190 A CN107063190 A CN 107063190A CN 201710120261 A CN201710120261 A CN 201710120261A CN 107063190 A CN107063190 A CN 107063190A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- point
- image
- represent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种面向定标面阵相机影像的位姿高精度直接估计方法,属于计算机视觉及摄影测量技术领域,本发明选择凸包点中三角形面积最大的三个像点对应的物方点作为基点组,获得影像深度和平移向量,再将影像位姿估计转化为由向量求旋转矩阵问题,采用Procrustes方法完成旋转矩阵的高精度估计;本发明在方法复杂程度(直接估计)和解算精度上相比当前主流方法有很大的改进,当前正值我国在航空航天、地理空间信息技术取得快速发展的新阶段,将本发明方法应用到航空(含低空)遥感测绘或航天遥感器空间定位测姿领域都有很好的发展前景,将有力提升本领域姿态估计技术的核心竞争力,理论价值大且经济效益可观。
Description
技术领域
本发明属于计算机视觉及摄影测量技术领域,具体涉及一种面向定标面阵相机影像的位姿高精度直接估计方法。
背景技术
影像位姿估计是计算机视觉及摄影测量学研究领域中的重要方向,贯穿整个航空航天测绘整个学科,研究精度高、速度快的影像位姿估计方法具有十分重要的价值。姿态估计常常采用迭代解法和直接解法两种方法。迭代解法在摄影测量领域有广泛应用,其解算精度高、具有很好的几何意义,解算的结果准确度比较均匀,是一种严密的方法,但其缺点是运算量大,并且需要位姿初值。在没有初值的情况下,直接解法可以直接求解位姿参数,主要指直接线性变换(DLT)法,它是建立像点坐标和同名物方点坐标之间直接线性关系,并采用最小二乘方法获得最小代数误差解,由于不需要外方位元素的初始近似值,如近景非量测数码影像或无人机影像处理,具有解算速度快等优点,但同时具有解算精度不高并且参数没有明确几何意义的缺点,该方法作为迭代方法姿态初始值,在计算机视觉领域有较多的应用。因此,学者开始研究对传统方法进行改进,武汉大学学报公开的利用二维DLT及光束法平差进行数字摄像机标定技术将二维DLT初值经解析后得到标定参数初值,再利用光束法平差予以精化,取得了很好的效果。计算机视觉领域对于相机姿态估计的文献也比较多,FIORE和LEPETIT提出的两种有效的线性解算姿态的方法,其中LEPETIT提出的EPnP算法得到了较高的评价,并在后期全景图像姿态估计上获得不断改进,这些算法基于复杂的高等代数理论,对研究者基础要求高,导致技术不易开发;另外,还有学者将影像位姿参数求解转化为立体几何边角关系,此算法实现也较为复杂且有一定适用范围。
发明内容
针对现有技术的不足,本发明提出了一种面向定标面阵相机影像的位姿高精度直接估计方法,以达到提高姿态参数估计精度目的。
一种面向定标面阵相机影像的位姿高精度直接估计方法,包括以下步骤:
步骤1、测定一组高等级物方点坐标,采用定标相机获取含有上述物方点的影像;
步骤2、选择影像数据中物方点对应的凸包像点参与影像位姿估计;
步骤3、采用坐标量测仪获得影像中物方点对应的像点坐标;
步骤4、在步骤2中选择凸包点中三角形面积最大的三个像点对应的物方点作为基点组,获得影像深度和平移向量;
步骤5、在步骤4的基础上,将影像位姿估计转化为由向量求旋转矩阵问题,采用Procrustes方法完成旋转矩阵的高精度估计;
步骤6、根据估计获得的旋转矩阵和平移向量获得影像外方位线元素,根据估计获得的旋转矩阵获得影像外方位角元素;
步骤7、完成影像的位姿估计。
步骤4所述的在步骤2选择的凸包点中三角形面积最大的三个像点所对应的物方点作为基点组,获得影像深度和平移向量,具体步骤如下:
步骤4-1、根据物点和像点之间的解析关系,转换为矩阵形式;
所述的物点和像点之间的关系,具体公式如下:
其中,X表示物点在物方空间坐标系X坐标,Y表示物点在物方空间坐标系Y坐标,Z表示物点在物方空间坐标系Z坐标,Xs表示相机位置在物方空间坐标系X坐标,Ys表示相机位置在物方空间坐标系Y坐标,Zs表示相机位置在物方空间坐标系Z坐标,a1、a2、a3、b1、b2、b3、c1、c2和c3表示姿态角ω,κ构成的旋转矩阵元素;
将公式(1)转换为矩阵形式;
λixi=KRT(Xi-Xs) (2)
其中,λi表示物点在像空间辅助坐标系下深度,i表示像点编号,R表示像空间辅助坐标系到物空间坐标系的旋转矩阵,K=diag(-f,-f,1),f表示相机主距;表示像点xi的齐次坐标,xi为像点的欧氏坐标;Xi为同名物点的物空间坐标;
将像点坐标进行规范化处理,得到的公式(1)的改化形式;
具体公式如下:
其中,为像点坐标规范化形式;
步骤4-2、选择凸包点中三角形面积最大的三个像点所对应的物方点作为基点组,构建其他物点与基点组间的比例系数向量;
所述的比例系数向量为:
其中,表示比例系数向量第一分量,表示比例系数向量第二分量,表示比例系数向量第三分量;X1表示基点组中第一个点坐标,X2表示基点组中第二个点坐标,X3表示基点组中第三个点坐标,Xj表示除基点组外其他物点坐标,j=4,5,....N,N表示所有凸包点个数;
将比例系数代入公式(3)中进行转化获得如下公式:
其中,λj表示第j个物点在像空间辅助坐标系下深度,表示第j个像点的规范化坐标,T=RTXs表示平移向量;
步骤4-3、将转化后的关系式两端同时乘以一个反对称矩阵,整理获得齐次方程组,并求解获得齐次方程组的通解;
其中,为反对称矩阵;
求解获得齐次方程组的通解;
其中,α>0为标量,表示第i个物点在像空间辅助坐标系下深度估值,T*表示相机平移向量估计值;
步骤4-4、将齐次方程通解代入改化后的共线方程中,并根据旋转矩阵的保范数特性获得标量的估值;
其中,α*表示标量α的估计值。
步骤5所述的在步骤4的基础上,将位姿估计转化为由向量求旋转矩阵,采用Procrustes方法完成旋转矩阵的高精度估计,具体步骤如下:
步骤5-1、根据标量的估值和通解,利用改化后的共线方程进行转化,转化为对旋转矩阵的估计处理;
转化获得具体公式如下:
V1=RTV0 (9)
其中,V1=Xi,α*表示标量α的估计值,λi表示物点在像空间辅助坐标系下深度,K=diag(-f,-f,1),f表示相机主距;表示像点xi的齐次坐标,T*表示相机平移向量估计值,R表示像空间辅助坐标系到物空间坐标系的旋转矩阵,Xi为同名物点的物空间坐标;
步骤5-2、采用Procrustes方法获得三维相似变换模型,获得旋转矩阵的估计值。
步骤6所述的根据估计获得的旋转矩阵和平移向量获得影像外方位线元素,根据估计获得的旋转矩阵获得影像外方位角元素,具体步骤如下:
步骤6-1、根据估计获得的旋转矩阵和相机平移向量获得影像外方位线元素;
具体公式如下:
Xs=R*T* (10)
其中,Xs表示相机位置在物方坐标系下坐标,R*表示旋转矩阵的估计值,T*表示相机平移向量估计值;
步骤6-2、根据估计获得的旋转矩阵获得影像外方位角元素;
具体公式如下:
其中,ω、κ表示影像外方位角元素。
本发明优点:
本发明提出一种面向定标面阵相机影像的位姿高精度直接估计方法,实验结果表明,通过该方法得到的姿态参数精度较改进的投影矩阵分解方法要高;本发明在方法复杂程度(直接估计)和解算精度上相比当前主流方法有很大的改进,当前正值我国在航空航天、地理空间信息技术取得快速发展的新阶段,将本发明方法应用到航空(含低空)遥感测绘或航天遥感器空间定位测姿领域都有很好的发展前景,将有力提升本领域姿态估计技术的核心竞争力,理论价值大且经济效益可观。
附图说明
图1为本发明一种实施例的面向定标面阵相机影像的位姿高精度直接估计方法流程图;
图2为本发明一种实施例的7幅图像位姿及物方点分布情况示意图;
图3为本发明一种实施例的影像基点组选择示意图。
具体实施方式
下面结合附图对本发明一种实施例做进一步说明。
本发明实施例中,一种面向定标面阵相机影像的位姿高精度直接估计方法,方法流程图如图1所示,包括以下步骤:
步骤1、测定一组高等级物方点坐标,采用定标相机获取含有上述物方点的影像;
步骤2、选择影像数据中物方点对应的凸包像点参与影像位姿估计;
本发明实施例中,选用7幅图像数据,如图2所示;选择每张实验影像数据中所有像点中的凸包点参与估计,每张像片参与估计的同名点数点见表1,已知像点坐标、物方点坐标,外方位元素(外参数)数据列于表2;
表1参与位姿估计的点数
Tab.1 number of image points for pose estimation
表2原始外方位元素(外参数)
Tab.2 original external parameters
步骤3、采用坐标量测仪获得影像中物方点对应的像点坐标(xi,yi);
步骤4、在步骤2中选择凸包点中三角形面积最大的三个像点对应的物方点作为基点组,获得影像深度和平移向量;
具体步骤如下:
步骤4-1、根据物点和像点之间的解析关系,转换为矩阵形式;
在摄影测量学研究中,采用欧几里得坐标表达物点和像点之间的关系,并且相关参数具有具体的物理意义,在相机经过检校(定标)并忽略影像畸变的情况下共线条件方程为:
其中,(x,y)为像点量测坐标;X表示物点在物方空间坐标系X坐标,Y表示物点在物方空间坐标系Y坐标,Z表示物点在物方空间坐标系Z坐标,Xs表示相机位置在物方空间坐标系X坐标,Ys表示相机位置在物方空间坐标系Y坐标,Zs表示相机位置在物方空间坐标系Z坐标,a1、a2、a3、b1、b2、b3、c1、c2和c3表示姿态角ω,κ构成的旋转矩阵元素;
将公式(1)转换为矩阵形式;
λixi=KRT(Xi-Xs) (2)
其中,λi表示物点在像空间辅助坐标系下深度,i表示像点编号,R表示像空间辅助坐标系到物空间坐标系的旋转矩阵,K=diag(-f,-f,1),f表示相机主距;表示像点xi的齐次坐标,xi为像点的欧氏坐标;Xi为同名物点的物空间坐标;
将像点坐标进行规范化处理,得到的公式(1)的改化形式;
具体公式如下:
其中,为像点坐标规范化形式;由公式(3)可知余下的工作就是利用几组和对应的Xi来准确估计R和Xs;
步骤4-2、选择凸包点中三角形面积最大的三个像点所对应的物方点作为基点组,构建其他物点与基点组间的比例系数向量;
本发明实施例中,为求得各个待定参数,首先选择基点组,即选择分布合理、质量可靠的三个物点作为基点,所有物点坐标向量均可由基点坐标向量进行表达;由于参数估计的质量受到基点选择的直接影响,因此,在所有参与姿态估计的像点所构成的凸包中,选择三点构成面积最大的一组像点对应的物点作为基点。如图3所示,其中×为所有的像点,1线为像点的凸包络线,由其节点参与姿态估计,而2线端点为选取面积最大的一组基点;
本发明实施例中,{X1,X2,X3}为选择的基点组,由于基点不共线,则行列式|X1,X2,X3|≠0;构建比例系数向量为:
其中,表示比例系数向量第一分量,表示比例系数向量第二分量,表示比例系数向量第三分量;X1表示基点组中第一个点坐标,X2表示基点组中第二个点坐标,X3表示基点组中第三个点坐标,Xj表示除基点组外其他物点坐标,j=4,5,....N,N表示所有凸包点个数;
将比例系数代入公式(3)中进行转化获得如下公式:
其中,λj表示第j个物点在像空间辅助坐标系下深度,表示第j个像点的规范化坐标,T=RTXs表示平移向量;
步骤4-3、将转化后的关系式两端同时乘以一个反对称矩阵整理获得关于参数(λ1,λ2,λ3,TT)T的齐次方程组,并求解获得齐次方程组的通解;
求解获得齐次方程组的通解;
其中,α>0为标量,表示第i个物点在像空间辅助坐标系下深度估值,T*表示相机平移向量估计值;i=1,2,3;
将式(7)代入到式(3)中,得到:
步骤4-4、将齐次方程通解代入改化后的共线方程中,并根据旋转矩阵的保范数特性获得标量的估值;
其中,α*表示标量α的估计值;
步骤5、在步骤4的基础上,将位姿估计转化为由向量求旋转矩阵问题,采用Procrustes方法完成旋转矩阵的高精度估计;
具体步骤如下:
步骤5-1、根据标量的估值和通解,利用改化后的共线方程进行转化,转化为对旋转矩阵的估计处理;
转化获得具体公式如下:
V1=RTV0 (9)
其中,V1=Xi,α*表示标量α的估计值,λi表示物点在像空间辅助坐标系下深度,K=diag(-f,-f,1),f表示相机主距;表示像点xi的齐次坐标,T*表示相机平移向量估计值,R表示像空间辅助坐标系到物空间坐标系的旋转矩阵,Xi为同名物点的物空间坐标;
步骤5-2、采用Procrustes方法获得三维相似变换模型,获得旋转矩阵的估计值;
具体步骤如下:
步骤5-2-1、计算幂等矩阵C.
其中,I为单位阵,1为元素为1的列向量;
步骤5-2-2、奇异值分解M;
M=V1 TCTCV2=UDVT (14)
其中,D为单位阵,U和V为正交向量;
步骤5-2-3、构建旋转矩阵R;
R*=UVT (15)
其中,R*为R的估值;
步骤6、根据估计获得的旋转矩阵和平移向量获得影像外方位线元素(Xs,Ys,Zs),根据估计获得的旋转矩阵获得影像外方位角元素
具体步骤如下:
步骤6-1、根据估计获得的旋转矩阵和相机平移向量获得影像外方位线元素;
具体公式如下:
Xs=R*T* (10)
其中,Xs表示相机位置在物方坐标系下坐标,R*表示旋转矩阵的估计值,T*表示相机平移向量估计值;
步骤6-2、根据估计获得的旋转矩阵获得影像外方位角元素;
具体公式如下:
其中,ω、κ表示影像外方位角元素;
本发明实施例中,在估计过程中,影像位姿参数间的相关性以及控制点的不合理分布(如共线共面或原点设置等),直接影响解的精度和稳定性,针对该情况本文采用物方坐标归一化预处理,即Xi=WXi,W为相似变换矩阵;
步骤7、完成影像的位姿估计。
实验结果与已知影像位姿数据比较后,绝对误差分别见表3、4。
表3外方位元素(外参数)估计结果
Tab.3 Estimation results of external parameters
表4外方位元素(外参数)绝对误差
Tab.4 Absolute error of external parameters
表5奇异值分解方法外方位元素(外参数)绝对误差
Tab.5 Absolute error of external parameters with SVD
本发明实施例中,从表4对比来看,本发明方法最后得到的影像位置绝对误差最大值为0.983m,基本在0.5m内;影像姿态绝对误差最大值为2.868°,其余均在较小范围内,质量较好;相比改进的投影矩阵分解方法,本发明方法在影像姿态估计的精度上有了明显提高,结果见表5;如果以此结果作为初值,进一步通过迭代精化,影像位姿参数精度会进一步提高。
Claims (4)
1.一种面向定标面阵相机影像的位姿高精度直接估计方法,其特征在于,包括以下步骤:
步骤1、测定一组高等级物方点坐标,采用定标相机获取含有上述物方点的影像;
步骤2、选择影像数据中物方点对应的凸包像点参与影像位姿估计;
步骤3、采用坐标量测仪获得影像中物方点对应的像点坐标;
步骤4、在步骤2中选择凸包点中三角形面积最大的三个像点对应的物方点作为基点组,获得影像深度和平移向量;
步骤5、在步骤4的基础上,将影像位姿估计转化为由向量求旋转矩阵问题,采用Procrustes方法完成旋转矩阵的高精度估计;
步骤6、根据估计获得的旋转矩阵和平移向量获得影像外方位线元素,根据估计获得的旋转矩阵获得影像外方位角元素;
步骤7、完成影像的位姿估计。
2.根据权利要求1所述的面向定标面阵相机影像的位姿高精度直接估计方法,其特征在于,步骤4所述的在步骤2选择的凸包点中三角形面积最大的三个像点所对应的物方点作为基点组,获得影像深度和平移向量,具体步骤如下:
步骤4-1、根据物点和像点之间的解析关系,转换为矩阵形式;
所述的物点和像点之间的关系,具体公式如下:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>x</mi>
<mo>=</mo>
<mo>-</mo>
<mi>f</mi>
<mfrac>
<mrow>
<msub>
<mi>a</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>-</mo>
<msub>
<mi>X</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>b</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>Y</mi>
<mo>-</mo>
<msub>
<mi>Y</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>c</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>Z</mi>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>a</mi>
<mn>3</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>-</mo>
<msub>
<mi>X</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>b</mi>
<mn>3</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>Y</mi>
<mo>-</mo>
<msub>
<mi>Y</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>c</mi>
<mn>3</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>Z</mi>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>y</mi>
<mo>=</mo>
<mo>-</mo>
<mi>f</mi>
<mfrac>
<mrow>
<msub>
<mi>a</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>-</mo>
<msub>
<mi>X</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>b</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>Y</mi>
<mo>-</mo>
<msub>
<mi>Y</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>c</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>Z</mi>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>a</mi>
<mn>3</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>-</mo>
<msub>
<mi>X</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>b</mi>
<mn>3</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>Y</mi>
<mo>-</mo>
<msub>
<mi>Y</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>c</mi>
<mn>3</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>Z</mi>
<mo>-</mo>
<msub>
<mi>Z</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,X表示物点在物方空间坐标系X坐标,Y表示物点在物方空间坐标系Y坐标,Z表示物点在物方空间坐标系Z坐标,Xs表示相机位置在物方空间坐标系X坐标,Ys表示相机位置在物方空间坐标系Y坐标,Zs表示相机位置在物方空间坐标系Z坐标,a1、a2、a3、b1、b2、b3、c1、c2和c3表示姿态角,ω,κ构成的旋转矩阵元素;
将公式(1)转换为矩阵形式;
λixi=KRT(Xi-Xs) (2)
其中,λi表示物点在像空间辅助坐标系下深度,i表示像点编号,R表示像空间辅助坐标系到物空间坐标系的旋转矩阵,K=diag(-f,-f,1),f表示相机主距;xi=[xi T,1]T表示像点xi的齐次坐标,xi为像点的欧氏坐标;Xi为同名物点的物空间坐标;
将像点坐标进行规范化处理,得到的公式(1)的改化形式;
具体公式如下:
<mrow>
<msub>
<mi>&lambda;</mi>
<mi>i</mi>
</msub>
<msub>
<mover>
<mi>x</mi>
<mo>&OverBar;</mo>
</mover>
<mi>i</mi>
</msub>
<mo>=</mo>
<msup>
<mi>R</mi>
<mi>T</mi>
</msup>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>X</mi>
<mi>s</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,为像点坐标规范化形式;
步骤4-2、选择凸包点中三角形面积最大的三个像点所对应的物方点作为基点组,构建其他物点与基点组间的比例系数向量;
所述的比例系数向量为:
<mrow>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>a</mi>
<mn>1</mn>
<mi>j</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>a</mi>
<mn>2</mn>
<mi>j</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>a</mi>
<mn>3</mn>
<mi>j</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>=</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>X</mi>
<mn>2</mn>
</msub>
<mo>,</mo>
<msub>
<mi>X</mi>
<mn>3</mn>
</msub>
<mo>)</mo>
</mrow>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<msub>
<mi>X</mi>
<mi>j</mi>
</msub>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
1
其中,表示比例系数向量第一分量,表示比例系数向量第二分量,表示比例系数向量第三分量;X1表示基点组中第一个点坐标,X2表示基点组中第二个点坐标,X3表示基点组中第三个点坐标,Xj表示除基点组外其他物点坐标,j=4,5,....N,N表示所有凸包点个数;
将比例系数代入公式(3)中进行转化获得如下公式:
其中,λj表示第j个物点在像空间辅助坐标系下深度,表示第j个像点的规范化坐标,T=RTXs表示平移向量;
步骤4-3、将转化后的关系式两端同时乘以一个反对称矩阵,整理获得齐次方程组,并求解获得齐次方程组的通解;
其中,为反对称矩阵;
求解获得齐次方程组的通解;
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&lambda;</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<msubsup>
<mi>&alpha;&lambda;</mi>
<mi>i</mi>
<mo>*</mo>
</msubsup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>T</mi>
<mo>=</mo>
<msup>
<mi>&alpha;T</mi>
<mo>*</mo>
</msup>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>7</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,α>0为标量,表示第i个物点在像空间辅助坐标系下深度估值,T*表示相机平移向量估计值;
步骤4-4、将齐次方程通解代入改化后的共线方程中,并根据旋转矩阵的保范数特性获得标量的估值;
<mrow>
<msup>
<mi>&alpha;</mi>
<mo>*</mo>
</msup>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mn>3</mn>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>3</mn>
</munderover>
<mrow>
<mo>(</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mover>
<mi>x</mi>
<mo>&OverBar;</mo>
</mover>
<mi>i</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
<mo>/</mo>
<mo>|</mo>
<mo>|</mo>
<msubsup>
<mi>&lambda;</mi>
<mi>i</mi>
<mo>*</mo>
</msubsup>
<msub>
<mover>
<mi>x</mi>
<mo>&OverBar;</mo>
</mover>
<mi>i</mi>
</msub>
<mo>+</mo>
<msup>
<mi>T</mi>
<mo>*</mo>
</msup>
<mo>|</mo>
<mo>|</mo>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,α*表示标量α的估计值。
3.根据权利要求1所述的面向定标面阵相机影像的位姿高精度直接估计方法,其特征在于,步骤5所述的在步骤4的基础上,将影像位姿估计转化为由向量求旋转矩阵,采用Procrustes方法完成旋转矩阵的高精度估计,具体步骤如下:
步骤5-1、根据标量的估值和通解,利用改化后的共线方程进行转化,转化为对旋转矩阵的估计处理;
转化获得具体公式如下:
V1=RTV0 (9)
其中,V1=Xi,α*表示标量α的估计值,λi表示物点在像空间辅助坐标系下深度,K=diag(-f,-f,1),f表示相机主距;xi=[xi T,1]T表示像点xi的齐次坐标,T*表示相机平移向量估计值,R表示像空间辅助坐标系到物空间坐标系的旋转矩阵,Xi为同名物点的物空间坐标;
步骤5-2、采用Procrustes方法获得三维相似变换模型,获得旋转矩阵的估计值。
4.根据权利要求1所述的面向定标面阵相机影像的位姿高精度直接估计方法,其特征在于,步骤6所述的根据估计获得的旋转矩阵和平移向量获得影像外方位线元素,根据估计获得的旋转矩阵获得影像外方位角元素,具体步骤如下:
步骤6-1、根据估计获得的旋转矩阵和相机平移向量获得影像外方位线元素;
具体公式如下:
Xs=R*T* (10)
其中,Xs表示相机位置在物方坐标系下坐标,R*表示旋转矩阵的估计值,T*表示相机平移向量估计值;
步骤6-2、根据估计获得的旋转矩阵获得影像外方位角元素;
具体公式如下:
其中,ω、κ表示影像外方位角元素。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710120261.0A CN107063190B (zh) | 2017-03-02 | 2017-03-02 | 面向定标面阵相机影像的位姿高精度直接估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710120261.0A CN107063190B (zh) | 2017-03-02 | 2017-03-02 | 面向定标面阵相机影像的位姿高精度直接估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107063190A true CN107063190A (zh) | 2017-08-18 |
CN107063190B CN107063190B (zh) | 2019-07-30 |
Family
ID=59621877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710120261.0A Expired - Fee Related CN107063190B (zh) | 2017-03-02 | 2017-03-02 | 面向定标面阵相机影像的位姿高精度直接估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107063190B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107886541A (zh) * | 2017-11-13 | 2018-04-06 | 天津市勘察院 | 基于反向投影法的单目运动目标位姿实时测量方法 |
CN109725340A (zh) * | 2018-12-31 | 2019-05-07 | 成都纵横大鹏无人机科技有限公司 | 直接地理定位方法及装置 |
CN110706273A (zh) * | 2019-08-21 | 2020-01-17 | 成都携恩科技有限公司 | 一种基于无人机的实时塌方区域面积的测量方法 |
CN111197975A (zh) * | 2019-12-09 | 2020-05-26 | 中国资源卫星应用中心 | 一种基于Rodrigues的影像姿态估计方法 |
CN111949926A (zh) * | 2020-06-30 | 2020-11-17 | 中国资源卫星应用中心 | 一种共线条件方程线性化的通用方法及装置 |
CN111949925A (zh) * | 2020-06-30 | 2020-11-17 | 中国资源卫星应用中心 | 基于罗德里格矩阵和最大凸包的影像相对定向方法及装置 |
CN113436252A (zh) * | 2021-06-28 | 2021-09-24 | 天津大学 | 基于单目视觉的位姿识别方法 |
CN113566778A (zh) * | 2021-07-27 | 2021-10-29 | 同济大学 | 一种多点透视成像的无人飞行器地面飞行位姿测量方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1696606A (zh) * | 2004-05-14 | 2005-11-16 | 佳能株式会社 | 用于获得目标物体的位置和方位的信息处理方法和设备 |
US20050265583A1 (en) * | 1999-03-08 | 2005-12-01 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
CN101240995A (zh) * | 2007-07-17 | 2008-08-13 | 天津大学 | 一种基于全局标定约束的三维拼接匹配点选取方法 |
CN101839692A (zh) * | 2010-05-27 | 2010-09-22 | 西安交通大学 | 单相机测量物体三维位置与姿态的方法 |
CN103759716A (zh) * | 2014-01-14 | 2014-04-30 | 清华大学 | 基于机械臂末端单目视觉的动态目标位置和姿态测量方法 |
CN104374395A (zh) * | 2014-03-31 | 2015-02-25 | 南京邮电大学 | 基于图的视觉slam方法 |
-
2017
- 2017-03-02 CN CN201710120261.0A patent/CN107063190B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050265583A1 (en) * | 1999-03-08 | 2005-12-01 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
CN1696606A (zh) * | 2004-05-14 | 2005-11-16 | 佳能株式会社 | 用于获得目标物体的位置和方位的信息处理方法和设备 |
CN101240995A (zh) * | 2007-07-17 | 2008-08-13 | 天津大学 | 一种基于全局标定约束的三维拼接匹配点选取方法 |
CN101839692A (zh) * | 2010-05-27 | 2010-09-22 | 西安交通大学 | 单相机测量物体三维位置与姿态的方法 |
CN103759716A (zh) * | 2014-01-14 | 2014-04-30 | 清华大学 | 基于机械臂末端单目视觉的动态目标位置和姿态测量方法 |
CN104374395A (zh) * | 2014-03-31 | 2015-02-25 | 南京邮电大学 | 基于图的视觉slam方法 |
Non-Patent Citations (2)
Title |
---|
李晶: "基于多点合作目标的多线阵CCD空间物体姿态测量的研究", 《中国博士学位论文全文数据库 信息科技辑》 * |
王春雪: "基于图像的空间目标三维姿态估计研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107886541A (zh) * | 2017-11-13 | 2018-04-06 | 天津市勘察院 | 基于反向投影法的单目运动目标位姿实时测量方法 |
CN107886541B (zh) * | 2017-11-13 | 2021-03-26 | 天津市勘察设计院集团有限公司 | 基于反向投影法的单目运动目标位姿实时测量方法 |
CN109725340A (zh) * | 2018-12-31 | 2019-05-07 | 成都纵横大鹏无人机科技有限公司 | 直接地理定位方法及装置 |
CN110706273A (zh) * | 2019-08-21 | 2020-01-17 | 成都携恩科技有限公司 | 一种基于无人机的实时塌方区域面积的测量方法 |
CN110706273B (zh) * | 2019-08-21 | 2023-04-21 | 成都携恩科技有限公司 | 一种基于无人机的实时塌方区域面积的测量方法 |
CN111197975A (zh) * | 2019-12-09 | 2020-05-26 | 中国资源卫星应用中心 | 一种基于Rodrigues的影像姿态估计方法 |
CN111949926A (zh) * | 2020-06-30 | 2020-11-17 | 中国资源卫星应用中心 | 一种共线条件方程线性化的通用方法及装置 |
CN111949925A (zh) * | 2020-06-30 | 2020-11-17 | 中国资源卫星应用中心 | 基于罗德里格矩阵和最大凸包的影像相对定向方法及装置 |
CN111949925B (zh) * | 2020-06-30 | 2023-08-29 | 中国资源卫星应用中心 | 基于罗德里格矩阵和最大凸包的影像相对定向方法及装置 |
CN113436252A (zh) * | 2021-06-28 | 2021-09-24 | 天津大学 | 基于单目视觉的位姿识别方法 |
CN113566778A (zh) * | 2021-07-27 | 2021-10-29 | 同济大学 | 一种多点透视成像的无人飞行器地面飞行位姿测量方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107063190B (zh) | 2019-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107063190A (zh) | 面向定标面阵相机影像的位姿高精度直接估计方法 | |
CN105758426B (zh) | 移动机器人的多传感器的联合标定方法 | |
CN105205858B (zh) | 一种基于单个深度视觉传感器的室内场景三维重建方法 | |
CN106296812B (zh) | 同步定位与建图方法 | |
CN110842940A (zh) | 一种建筑测量机器人多传感器融合三维建模方法及系统 | |
CN108592950B (zh) | 一种单目相机和惯性测量单元相对安装角标定方法 | |
CN110570449B (zh) | 一种基于毫米波雷达与视觉slam的定位与建图方法 | |
CN107564061A (zh) | 一种基于图像梯度联合优化的双目视觉里程计算方法 | |
CN107871327A (zh) | 基于特征点线的单目相机位姿估计和优化方法及系统 | |
CN102778224B (zh) | 一种基于极坐标参数化的航空摄影测量光束法平差的方法 | |
CN103411589B (zh) | 一种基于四维实数矩阵的三维图像匹配导航方法 | |
Wang et al. | A dual quaternion-based, closed-form pairwise registration algorithm for point clouds | |
CN105809702A (zh) | 一种基于Tsai算法的改进位姿估计方法 | |
CN104166989B (zh) | 一种用于二维激光雷达点云匹配的快速icp方法 | |
CN105004337B (zh) | 基于直线匹配的农用无人机自主导航方法 | |
CN108470356A (zh) | 一种基于双目视觉的目标对象快速测距方法 | |
Duan et al. | A calibration method for paracatadioptric camera from sphere images | |
CN106547724A (zh) | 基于最小点集的欧式空间坐标转换参数获取方法 | |
CN101865656B (zh) | 一种使用少数共面点精确定位多摄像头系统位姿的方法 | |
Huang et al. | Vision pose estimation from planar dual circles in a single image | |
Chen et al. | Image stitching algorithm research based on OpenCV | |
CN105787464A (zh) | 一种大量图片在三维场景中的视点标定方法 | |
CN107463871A (zh) | 一种基于角特征加权的点云匹配方法 | |
US20240169584A1 (en) | Neural network-based pose estimation and registration method and device for heterogeneous images, and medium | |
CN107330934B (zh) | 低维度的集束调整计算方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190730 Termination date: 20210302 |
|
CF01 | Termination of patent right due to non-payment of annual fee |