CN107063190B - 面向定标面阵相机影像的位姿高精度直接估计方法 - Google Patents

面向定标面阵相机影像的位姿高精度直接估计方法 Download PDF

Info

Publication number
CN107063190B
CN107063190B CN201710120261.0A CN201710120261A CN107063190B CN 107063190 B CN107063190 B CN 107063190B CN 201710120261 A CN201710120261 A CN 201710120261A CN 107063190 B CN107063190 B CN 107063190B
Authority
CN
China
Prior art keywords
image
object space
representing
point
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710120261.0A
Other languages
English (en)
Other versions
CN107063190A (zh
Inventor
李艳焕
徐振亮
邵良杉
刘冰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning Technical University
Original Assignee
Liaoning Technical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning Technical University filed Critical Liaoning Technical University
Priority to CN201710120261.0A priority Critical patent/CN107063190B/zh
Publication of CN107063190A publication Critical patent/CN107063190A/zh
Application granted granted Critical
Publication of CN107063190B publication Critical patent/CN107063190B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种面向定标面阵相机影像的位姿高精度直接估计方法,属于计算机视觉及摄影测量技术领域,本发明选择凸包点中三角形面积最大的三个像点对应的物方点作为基点组,获得影像深度和平移向量,再将影像位姿估计转化为由向量求旋转矩阵问题,采用Procrustes方法完成旋转矩阵的高精度估计;本发明在方法复杂程度(直接估计)和解算精度上相比当前主流方法有很大的改进,当前正值我国在航空航天、地理空间信息技术取得快速发展的新阶段,将本发明方法应用到航空(含低空)遥感测绘或航天遥感器空间定位测姿领域都有很好的发展前景,将有力提升本领域姿态估计技术的核心竞争力,理论价值大且经济效益可观。

Description

面向定标面阵相机影像的位姿高精度直接估计方法
技术领域
本发明属于计算机视觉及摄影测量技术领域,具体涉及一种面向定标面阵相机影像的位姿高精度直接估计方法。
背景技术
影像位姿估计是计算机视觉及摄影测量学研究领域中的重要方向,贯穿整个航空航天测绘整个学科,研究精度高、速度快的影像位姿估计方法具有十分重要的价值。姿态估计常常采用迭代解法和直接解法两种方法。迭代解法在摄影测量领域有广泛应用,其解算精度高、具有很好的几何意义,解算的结果准确度比较均匀,是一种严密的方法,但其缺点是运算量大,并且需要位姿初值。在没有初值的情况下,直接解法可以直接求解位姿参数,主要指直接线性变换(DLT)法,它是建立像点坐标和同名物方点坐标之间直接线性关系,并采用最小二乘方法获得最小代数误差解,由于不需要外方位元素的初始近似值,如近景非量测数码影像或无人机影像处理,具有解算速度快等优点,但同时具有解算精度不高并且参数没有明确几何意义的缺点,该方法作为迭代方法姿态初始值,在计算机视觉领域有较多的应用。因此,学者开始研究对传统方法进行改进,武汉大学学报公开的利用二维DLT及光束法平差进行数字摄像机标定技术将二维DLT初值经解析后得到标定参数初值,再利用光束法平差予以精化,取得了很好的效果。计算机视觉领域对于相机姿态估计的文献也比较多,FIORE和LEPETIT提出的两种有效的线性解算姿态的方法,其中LEPETIT提出的EPnP算法得到了较高的评价,并在后期全景图像姿态估计上获得不断改进,这些算法基于复杂的高等代数理论,对研究者基础要求高,导致技术不易开发;另外,还有学者将影像位姿参数求解转化为立体几何边角关系,此算法实现也较为复杂且有一定适用范围。
发明内容
针对现有技术的不足,本发明提出了一种面向定标面阵相机影像的位姿高精度直接估计方法,以达到提高姿态参数估计精度目的。
一种面向定标面阵相机影像的位姿高精度直接估计方法,包括以下步骤:
步骤1、测定一组高等级物方点坐标,采用定标相机获取含有上述物方点的影像;
步骤2、选择影像数据中物方点对应的凸包像点参与影像位姿估计;
步骤3、采用坐标量测仪获得影像中物方点对应的像点坐标;
步骤4、在步骤2中选择凸包点中三角形面积最大的三个像点对应的物方点作为基点组,获得影像深度和平移向量;
步骤5、在步骤4的基础上,将影像位姿估计转化为由向量求旋转矩阵问题,采用Procrustes方法完成旋转矩阵的高精度估计;
步骤6、根据估计获得的旋转矩阵和平移向量获得影像外方位线元素,根据估计获得的旋转矩阵获得影像外方位角元素;
步骤7、完成影像的位姿估计。
步骤4所述的在步骤2选择的凸包点中三角形面积最大的三个像点所对应的物方点作为基点组,获得影像深度和平移向量,具体步骤如下:
步骤4-1、根据物方点和像点之间的解析关系,转换为矩阵形式;
所述的物方点和像点之间的关系,具体公式如下:
其中,X表示物方点在物方空间坐标系X坐标,Y表示物方点在物方空间坐标系Y坐标,Z表示物方点在物方空间坐标系Z坐标,Xs表示相机位置在物方空间坐标系X坐标,Ys表示相机位置在物方空间坐标系Y坐标,Zs表示相机位置在物方空间坐标系Z坐标,a1、a2、a3、b1、b2、b3、c1、c2和c3表示姿态角ω,κ构成的旋转矩阵元素;
将公式(1)转换为矩阵形式;
λixi=KRT(Xi-Xs) (2)
其中,λi表示物方点在像空间辅助坐标系下深度,i表示像点编号,R表示像空间辅助坐标系到物空间坐标系的旋转矩阵,K=diag(-f,-f,1),f表示相机主距;xi=[xi T,1]T表示像点xi的齐次坐标,xi为像点的欧氏坐标;Xi为同名物方点的物空间坐标;
将像点坐标进行规范化处理,得到的公式(1)的改化形式;
具体公式如下:
其中,为像点坐标规范化形式;
步骤4-2、选择凸包点中三角形面积最大的三个像点所对应的物方点作为基点组,构建其他物方点与基点组间的比例系数向量;
所述的比例系数向量为:
其中,表示比例系数向量第一分量,表示比例系数向量第二分量,表示比例系数向量第三分量;X1表示基点组中第一个点坐标,X2表示基点组中第二个点坐标,X3表示基点组中第三个点坐标,Xj表示除基点组外其他物方点坐标,j=4,5,....N,N表示所有凸包点个数;
将比例系数代入公式(3)中进行转化获得如下公式:
其中,λj表示第j个物方点在像空间辅助坐标系下深度,表示第j个像点的规范化坐标,T=RTXs表示平移向量;
步骤4-3、将转化后的关系式两端同时乘以一个反对称矩阵,整理获得齐次方程组,并求解获得齐次方程组的通解;
其中,为反对称矩阵;
求解获得齐次方程组的通解;
其中,α>0为标量,表示第i个物方点在像空间辅助坐标系下深度估值,T*表示相机平移向量估计值;
步骤4-4、将齐次方程通解代入改化后的共线方程中,并根据旋转矩阵的保范数特性获得标量的估值;
其中,α*表示标量α的估计值。
步骤5所述的在步骤4的基础上,将位姿估计转化为由向量求旋转矩阵,采用Procrustes方法完成旋转矩阵的高精度估计,具体步骤如下:
步骤5-1、根据标量的估值和通解,利用改化后的共线方程进行转化,转化为对旋转矩阵的估计处理;
转化获得具体公式如下:
V1=RTV0 (9)
其中,V1=Xi,α*表示标量α的估计值,λi表示物方点在像空间辅助坐标系下深度,K=diag(-f,-f,1),f表示相机主距;xi=[xi T,1]T表示像点xi的齐次坐标,T*表示相机平移向量估计值,R表示像空间辅助坐标系到物空间坐标系的旋转矩阵,Xi为同名物方点的物空间坐标;
步骤5-2、采用Procrustes方法获得三维相似变换模型,获得旋转矩阵的估计值。
步骤6所述的根据估计获得的旋转矩阵和平移向量获得影像外方位线元素,根据估计获得的旋转矩阵获得影像外方位角元素,具体步骤如下:
步骤6-1、根据估计获得的旋转矩阵和相机平移向量获得影像外方位线元素;
具体公式如下:
Xs=R*T* (10)
其中,Xs表示相机位置在物方坐标系下坐标,R*表示旋转矩阵的估计值,T*表示相机平移向量估计值;
步骤6-2、根据估计获得的旋转矩阵获得影像外方位角元素;
具体公式如下:
其中,ω、κ表示影像外方位角元素。
本发明优点:
本发明提出一种面向定标面阵相机影像的位姿高精度直接估计方法,实验结果表明,通过该方法得到的姿态参数精度较改进的投影矩阵分解方法要高;本发明在方法复杂程度(直接估计)和解算精度上相比当前主流方法有很大的改进,当前正值我国在航空航天、地理空间信息技术取得快速发展的新阶段,将本发明方法应用到航空(含低空)遥感测绘或航天遥感器空间定位测姿领域都有很好的发展前景,将有力提升本领域姿态估计技术的核心竞争力,理论价值大且经济效益可观。
附图说明
图1为本发明一种实施例的面向定标面阵相机影像的位姿高精度直接估计方法流程图;
图2为本发明一种实施例的7幅图像位姿及物方点分布情况示意图;
图3为本发明一种实施例的影像基点组选择示意图。
具体实施方式
下面结合附图对本发明一种实施例做进一步说明。
本发明实施例中,一种面向定标面阵相机影像的位姿高精度直接估计方法,方法流程图如图1所示,包括以下步骤:
步骤1、测定一组高等级物方点坐标,采用定标相机获取含有上述物方点的影像;
步骤2、选择影像数据中物方点对应的凸包像点参与影像位姿估计;
本发明实施例中,选用7幅图像数据,如图2所示;选择每张实验影像数据中所有像点中的凸包点参与估计,每张像片参与估计的同名点数点见表1,已知像点坐标、物方点坐标,外方位元素(外参数)数据列于表2;
表1参与位姿估计的点数
Tab.1 number of image points for pose estimation
表2原始外方位元素(外参数)
Tab.2 original external parameters
步骤3、采用坐标量测仪获得影像中物方点对应的像点坐标(xi,yi);
步骤4、在步骤2中选择凸包点中三角形面积最大的三个像点对应的物方点作为基点组,获得影像深度和平移向量;
具体步骤如下:
步骤4-1、根据物方点和像点之间的解析关系,转换为矩阵形式;
在摄影测量学研究中,采用欧几里得坐标表达物方点和像点之间的关系,并且相关参数具有具体的物理意义,在相机经过检校(定标)并忽略影像畸变的情况下共线条件方程为:
其中,(x,y)为像点量测坐标;X表示物方点在物方空间坐标系X坐标,Y表示物方点在物方空间坐标系Y坐标,Z表示物方点在物方空间坐标系Z坐标,Xs表示相机位置在物方空间坐标系X坐标,Ys表示相机位置在物方空间坐标系Y坐标,Zs表示相机位置在物方空间坐标系Z坐标,a1、a2、a3、b1、b2、b3、c1、c2和c3表示姿态角ω,κ构成的旋转矩阵元素;
将公式(1)转换为矩阵形式;
λixi=KRT(Xi-Xs) (2)
其中,λi表示物方点在像空间辅助坐标系下深度,i表示像点编号,R表示像空间辅助坐标系到物空间坐标系的旋转矩阵,K=diag(-f,-f,1),f表示相机主距;xi=[xi T,1]T表示像点xi的齐次坐标,xi为像点的欧氏坐标;Xi为同名物方点的物空间坐标;
将像点坐标进行规范化处理,得到的公式(1)的改化形式;
具体公式如下:
其中,为像点坐标规范化形式;由公式(3)可知余下的工作就是利用几组和对应的Xi来准确估计R和Xs
步骤4-2、选择凸包点中三角形面积最大的三个像点所对应的物方点作为基点组,构建其他物方点与基点组间的比例系数向量;
本发明实施例中,为求得各个待定参数,首先选择基点组,即选择分布合理、质量可靠的三个物方点作为基点,所有物方点坐标向量均可由基点坐标向量进行表达;由于参数估计的质量受到基点选择的直接影响,因此,在所有参与姿态估计的像点所构成的凸包中,选择三点构成面积最大的一组像点对应的物方点作为基点。如图3所示,其中×为所有的像点,1线为像点的凸包络线,由其节点参与姿态估计,而2线端点为选取面积最大的一组基点;
本发明实施例中,{X1,X2,X3}为选择的基点组,由于基点不共线,则行列式|X1,X2,X3|≠0;构建比例系数向量为:
其中,表示比例系数向量第一分量,表示比例系数向量第二分量,表示比例系数向量第三分量;X1表示基点组中第一个点坐标,X2表示基点组中第二个点坐标,X3表示基点组中第三个点坐标,Xj表示除基点组外其他物方点坐标,j=4,5,....N,N表示所有凸包点个数;
将比例系数代入公式(3)中进行转化获得如下公式:
其中,λj表示第j个物方点在像空间辅助坐标系下深度,表示第j个像点的规范化坐标,T=RTXs表示平移向量;
步骤4-3、将转化后的关系式两端同时乘以一个反对称矩阵整理获得关于参数(λ1,λ2,λ3,TT)T的齐次方程组,并求解获得齐次方程组的通解;
求解获得齐次方程组的通解;
其中,α>0为标量,表示第i个物方点在像空间辅助坐标系下深度估值,T*表示相机平移向量估计值;i=1,2,3;
将式(7)代入到式(3)中,得到:
步骤4-4、将齐次方程通解代入改化后的共线方程中,并根据旋转矩阵的保范数特性获得标量的估值;
其中,α*表示标量α的估计值;
步骤5、在步骤4的基础上,将位姿估计转化为由向量求旋转矩阵问题,采用Procrustes方法完成旋转矩阵的高精度估计;
具体步骤如下:
步骤5-1、根据标量的估值和通解,利用改化后的共线方程进行转化,转化为对旋转矩阵的估计处理;
转化获得具体公式如下:
V1=RTV0 (9)
其中,V1=Xi,α*表示标量α的估计值,λi表示物方点在像空间辅助坐标系下深度,K=diag(-f,-f,1),f表示相机主距;xi=[xi T,1]T表示像点xi的齐次坐标,T*表示相机平移向量估计值,R表示像空间辅助坐标系到物空间坐标系的旋转矩阵,Xi为同名物方点的物空间坐标;
步骤5-2、采用Procrustes方法获得三维相似变换模型,获得旋转矩阵的估计值;
具体步骤如下:
步骤5-2-1、计算幂等矩阵C;
其中,I为单位阵,1为元素为1的列向量;
步骤5-2-2、奇异值分解M;
M=V1 TCTCV2=UDVT (14)
其中,D为单位阵,U和V为正交向量;
步骤5-2-3、构建旋转矩阵R;
R*=UVT (15)
其中,R*为R的估值;
步骤6、根据估计获得的旋转矩阵和平移向量获得影像外方位线元素(Xs,Ys,Zs),根据估计获得的旋转矩阵获得影像外方位角元素
具体步骤如下:
步骤6-1、根据估计获得的旋转矩阵和相机平移向量获得影像外方位线元素;
具体公式如下:
Xs=R*T* (10)
其中,Xs表示相机位置在物方坐标系下坐标,R*表示旋转矩阵的估计值,T*表示相机平移向量估计值;
步骤6-2、根据估计获得的旋转矩阵获得影像外方位角元素;
具体公式如下:
其中,ω、κ表示影像外方位角元素;
本发明实施例中,在估计过程中,影像位姿参数间的相关性以及控制点的不合理分布(如共线共面或原点设置等),直接影响解的精度和稳定性,针对该情况本文采用物方坐标归一化预处理,即Xi=WXi,W为相似变换矩阵;
步骤7、完成影像的位姿估计。
实验结果与已知影像位姿数据比较后,绝对误差分别见表3、4。
表3外方位元素(外参数)估计结果
Tab.3 Estimation results of external parameters
表4外方位元素(外参数)绝对误差
Tab.4 Absolute error of extemal parameters
表5奇异值分解方法外方位元素(外参数)绝对误差
Tab.5 Absolute error of external parameters with SVD
本发明实施例中,从表4对比来看,本发明方法最后得到的影像位置绝对误差最大值为0.983m,基本在0.5m内;影像姿态绝对误差最大值为2.868°,其余均在较小范围内,质量较好;相比改进的投影矩阵分解方法,本发明方法在影像姿态估计的精度上有了明显提高,结果见表5;如果以此结果作为初值,进一步通过迭代精化,影像位姿参数精度会进一步提高。

Claims (4)

1.一种面向定标面阵相机影像的位姿高精度直接估计方法,其特征在于,包括以下步骤:
步骤1、测定一组高等级物方点坐标,采用定标相机获取含有上述物方点的影像;
步骤2、选择影像数据中物方点对应的凸包像点参与影像位姿估计;
步骤3、采用坐标量测仪获得影像中物方点对应的像点坐标;
步骤4、在步骤2中选择凸包点中三角形面积最大的三个像点对应的物方点作为基点组,获得影像深度和平移向量;
步骤5、在步骤4的基础上,将影像位姿估计转化为由向量求旋转矩阵问题,采用Procrustes方法完成旋转矩阵的高精度估计;
步骤6、根据估计获得的旋转矩阵和平移向量获得影像外方位线元素,根据估计获得的旋转矩阵获得影像外方位角元素;
步骤7、完成影像的位姿估计。
2.根据权利要求1所述的面向定标面阵相机影像的位姿高精度直接估计方法,其特征在于,步骤4所述的在步骤2选择的凸包点中三角形面积最大的三个像点所对应的物方点作为基点组,获得影像深度和平移向量,具体步骤如下:
步骤4-1、根据物方点和像点之间的解析关系,转换为矩阵形式;
所述的物方点和像点之间的关系,具体公式如下:
其中,X表示物方点在物方空间坐标系X坐标,Y表示物方点在物方空间坐标系Y坐标,Z表示物方点在物方空间坐标系Z坐标,Xs表示相机位置在物方空间坐标系X坐标,Ys表示相机位置在物方空间坐标系Y坐标,Zs表示相机位置在物方空间坐标系Z坐标,a1、a2、a3、b1、b2、b3、c1、c2和c3表示姿态角ω,κ构成的旋转矩阵元素;
将公式(1)转换为矩阵形式;
λixi=KRT(Xi-Xs) (2)
其中,λi表示物方点在像空间辅助坐标系下深度,i表示像点编号,R表示像空间辅助坐标系到物空间坐标系的旋转矩阵,K=diag(-f,-f,1),f表示相机主距;xi=[xi T,1]T表示像点xi的齐次坐标,xi为像点的欧氏坐标;Xi为同名物方点的物空间坐标;
将像点坐标进行规范化处理,得到的公式(1)的改化形式;
具体公式如下:
其中,为像点坐标规范化形式;
步骤4-2、选择凸包点中三角形面积最大的三个像点所对应的物方点作为基点组,构建其他物方点与基点组间的比例系数向量;
所述的比例系数向量为:
其中,表示比例系数向量第一分量,表示比例系数向量第二分量,表示比例系数向量第三分量;X1表示基点组中第一个点坐标,X2表示基点组中第二个点坐标,X3表示基点组中第三个点坐标,Xj表示除基点组外其他物方点坐标,j=4,5,....N,N表示所有凸包点个数;
将比例系数代入公式(3)中进行转化获得如下公式:
其中,λj表示第j个物方点在像空间辅助坐标系下深度,表示第j个像点的规范化坐标,T=RTXs表示平移向量;
步骤4-3、将转化后的关系式两端同时乘以一个反对称矩阵,整理获得齐次方程组,并求解获得齐次方程组的通解;
其中,为反对称矩阵;
求解获得齐次方程组的通解;
其中,α>0为标量,表示第i个物方点在像空间辅助坐标系下深度估值,T*表示相机平移向量估计值;
步骤4-4、将齐次方程通解代入改化后的共线方程中,并根据旋转矩阵的保范数特性获得标量的估值;
其中,α*表示标量α的估计值。
3.根据权利要求1所述的面向定标面阵相机影像的位姿高精度直接估计方法,其特征在于,步骤5所述的在步骤4的基础上,将影像位姿估计转化为由向量求旋转矩阵,采用Procrustes方法完成旋转矩阵的高精度估计,具体步骤如下:
步骤5-1、根据标量的估值和通解,利用改化后的共线方程进行转化,转化为对旋转矩阵的估计处理;
转化获得具体公式如下:
V1=RTV0 (9)
其中,V1=Xi,α*表示标量α的估计值,λi表示物方点在像空间辅助坐标系下深度,K=diag(-f,-f,1),f表示相机主距;xi=[xi T,1]T表示像点xi的齐次坐标,T*表示相机平移向量估计值,R表示像空间辅助坐标系到物空间坐标系的旋转矩阵,Xi为同名物方点的物空间坐标;
步骤5-2、采用Procrustes方法获得三维相似变换模型,获得旋转矩阵的估计值。
4.根据权利要求1所述的面向定标面阵相机影像的位姿高精度直接估计方法,其特征在于,步骤6所述的根据估计获得的旋转矩阵和平移向量获得影像外方位线元素,根据估计获得的旋转矩阵获得影像外方位角元素,具体步骤如下:
步骤6-1、根据估计获得的旋转矩阵和相机平移向量获得影像外方位线元素;
具体公式如下:
Xs=R*T* (10)
其中,Xs表示相机位置在物方坐标系下坐标,R*表示旋转矩阵的估计值,T*表示相机平移向量估计值;
步骤6-2、根据估计获得的旋转矩阵获得影像外方位角元素;
具体公式如下:
其中,ω、κ表示影像外方位角元素。
CN201710120261.0A 2017-03-02 2017-03-02 面向定标面阵相机影像的位姿高精度直接估计方法 Expired - Fee Related CN107063190B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710120261.0A CN107063190B (zh) 2017-03-02 2017-03-02 面向定标面阵相机影像的位姿高精度直接估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710120261.0A CN107063190B (zh) 2017-03-02 2017-03-02 面向定标面阵相机影像的位姿高精度直接估计方法

Publications (2)

Publication Number Publication Date
CN107063190A CN107063190A (zh) 2017-08-18
CN107063190B true CN107063190B (zh) 2019-07-30

Family

ID=59621877

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710120261.0A Expired - Fee Related CN107063190B (zh) 2017-03-02 2017-03-02 面向定标面阵相机影像的位姿高精度直接估计方法

Country Status (1)

Country Link
CN (1) CN107063190B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107886541B (zh) * 2017-11-13 2021-03-26 天津市勘察设计院集团有限公司 基于反向投影法的单目运动目标位姿实时测量方法
CN109725340B (zh) * 2018-12-31 2021-08-20 成都纵横大鹏无人机科技有限公司 直接地理定位方法及装置
CN110706273B (zh) * 2019-08-21 2023-04-21 成都携恩科技有限公司 一种基于无人机的实时塌方区域面积的测量方法
CN111197975A (zh) * 2019-12-09 2020-05-26 中国资源卫星应用中心 一种基于Rodrigues的影像姿态估计方法
CN111949925B (zh) * 2020-06-30 2023-08-29 中国资源卫星应用中心 基于罗德里格矩阵和最大凸包的影像相对定向方法及装置
CN111949926A (zh) * 2020-06-30 2020-11-17 中国资源卫星应用中心 一种共线条件方程线性化的通用方法及装置
CN113436252A (zh) * 2021-06-28 2021-09-24 天津大学 基于单目视觉的位姿识别方法
CN113566778A (zh) * 2021-07-27 2021-10-29 同济大学 一种多点透视成像的无人飞行器地面飞行位姿测量方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1696606A (zh) * 2004-05-14 2005-11-16 佳能株式会社 用于获得目标物体的位置和方位的信息处理方法和设备
CN101240995A (zh) * 2007-07-17 2008-08-13 天津大学 一种基于全局标定约束的三维拼接匹配点选取方法
CN101839692A (zh) * 2010-05-27 2010-09-22 西安交通大学 单相机测量物体三维位置与姿态的方法
CN103759716A (zh) * 2014-01-14 2014-04-30 清华大学 基于机械臂末端单目视觉的动态目标位置和姿态测量方法
CN104374395A (zh) * 2014-03-31 2015-02-25 南京邮电大学 基于图的视觉slam方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003134B1 (en) * 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1696606A (zh) * 2004-05-14 2005-11-16 佳能株式会社 用于获得目标物体的位置和方位的信息处理方法和设备
CN101240995A (zh) * 2007-07-17 2008-08-13 天津大学 一种基于全局标定约束的三维拼接匹配点选取方法
CN101839692A (zh) * 2010-05-27 2010-09-22 西安交通大学 单相机测量物体三维位置与姿态的方法
CN103759716A (zh) * 2014-01-14 2014-04-30 清华大学 基于机械臂末端单目视觉的动态目标位置和姿态测量方法
CN104374395A (zh) * 2014-03-31 2015-02-25 南京邮电大学 基于图的视觉slam方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于图像的空间目标三维姿态估计研究;王春雪;《中国优秀硕士学位论文全文数据库 信息科技辑》;20150216;全文 *
基于多点合作目标的多线阵CCD空间物体姿态测量的研究;李晶;《中国博士学位论文全文数据库 信息科技辑》;20140316;全文 *

Also Published As

Publication number Publication date
CN107063190A (zh) 2017-08-18

Similar Documents

Publication Publication Date Title
CN107063190B (zh) 面向定标面阵相机影像的位姿高精度直接估计方法
CN111414798B (zh) 基于rgb-d图像的头部姿态检测方法及系统
CN106204718B (zh) 一种基于单个Kinect的简易高效三维人体重建方法
CN106780619B (zh) 一种基于Kinect深度相机的人体尺寸测量方法
CN109029450B (zh) 一种室内定位方法
JP5627325B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
CN106705849B (zh) 线结构光传感器标定方法
CN109544606B (zh) 基于多个Kinect的快速自动配准方法及系统
CN110021039A (zh) 序列图像约束的多视角实物表面点云数据初始配准方法
CN107871327A (zh) 基于特征点线的单目相机位姿估计和优化方法及系统
CN109766903B (zh) 一种基于曲面特征的点云模型曲面匹配方法
Li et al. Research on the calibration technology of an underwater camera based on equivalent focal length
CN104268880A (zh) 基于特征和区域匹配相结合的深度信息获取方法
CN107167116A (zh) 一种空间圆弧位姿的视觉检测方法
Huang et al. Vision pose estimation from planar dual circles in a single image
Wei et al. Optimization of 3-D pose measurement method based on binocular vision
CN109584347B (zh) 一种基于主动表观模型的增强现实虚实遮挡处理方法
CN106595595B (zh) 一种基于深度传感器的室内机器人定向方法
CN113642397B (zh) 一种基于手机视频的物体长度测量方法
Guo et al. Binocular stereo vision calibration based on accurate ellipse detection algorithm of direct calculation and grating conversion check
CN109300148A (zh) 基于方法协同的多源图像配准方法
CN110428457A (zh) 一种视觉定位中的点集仿射变换算法
CN109886988A (zh) 一种微波成像仪定位误差的度量方法、系统、装置及介质
Gao et al. Distance measurement method based on two-dimensional image recognition and inverse perspective transformation
CN108520494A (zh) 基于结构条件互信息的sar图像与可见光图像配准方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190730

Termination date: 20210302

CF01 Termination of patent right due to non-payment of annual fee