CN104424382A - 一种多特征点位置姿态冗余解算方法 - Google Patents
一种多特征点位置姿态冗余解算方法 Download PDFInfo
- Publication number
- CN104424382A CN104424382A CN201310367522.0A CN201310367522A CN104424382A CN 104424382 A CN104424382 A CN 104424382A CN 201310367522 A CN201310367522 A CN 201310367522A CN 104424382 A CN104424382 A CN 104424382A
- Authority
- CN
- China
- Prior art keywords
- prime
- point
- sin
- cos
- gamma
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明属于物体位置姿态测量技术领域,具体涉及一种多特征点位置姿态冗余解算方法。方法以特征点在视觉测量系统中的三维坐标为输入条件,获取数据后通过计算特征点到空间虚拟点的距离寻找匹配点对,若所有特征点均能找到匹配点对,则直接进行去重心化操作;若无法找到匹配点对,则该点被自动舍弃,记录匹配点对个数,动态调整后续算法数据入口大小,由剩余点解算该时刻的姿态位置信息;完成匹配后,通过去重心化实现平移信息和旋转信息的分离,单独解算旋转矩阵。本发明解决了物体空间位置姿态测量的六自由度解算问题,提高算法精度的同时使算法保持较高的实时性能。
Description
技术领域
本发明属于物体位置姿态测量技术领域,具体涉及一种多特征点位置姿态冗余解算方法。
背景技术
随着航空航天领域的迅猛发展,对飞行器运动过程位置姿态测量的要求已经越来越广泛,如航天器对接、级间分离姿态的测量等等。目前,主流方法是通过立体摄影测量技术实现对飞行器上特征点的三维坐标动态测量,进而通过特征点的三维坐标反推物体运动的六自由度姿态参数,这个过程即为姿态解算。
传统解算方法,按照特征点在运动前后两个坐标系中的几何关系建立方程求取姿态的闭式解或通过优化方法求取数值解。
根据刚体运动原理,只需三个特征点即可解算物体的姿态参数,但由于该方法的求解方程建立在严格准确的几何约束基础上,对噪声干扰的敏感性高,一般采用增加特征点的方式,提高数值解对噪声干扰的免疫力。但特征点数目的增加又给不同时刻间的特征点匹配带来了困难,极易造成解算结果的错误;同时,使用数目较多的特征点来进行迭代计算,严重增加了计算耗时,限制了该方法的应用范围。
发明内容
本发明的目的在于提供一种求解物体六自由度位置姿态的冗余解算方法,此方法根据刚体运动学原理利用物体上多个特征点坐标作为输入条件,通过特征点匹配、去重心化、多点平差等步骤,实现对物体位置姿态的快速精确求解。
为达到上述目的,本发明所采取的技术方案为:
一种多特征点位置姿态冗余解算方法,根据刚体变换原理,物体姿态变化时物体上的点坐标满足:
Pi’=R*Pi+t
其中R为旋转矩阵,t为平移矩阵;
其中α,β,γ分别为绕x,y,z轴的旋转角; xt,yt,zt分别为沿x,y,z轴的平移量;
该方法包括如下步骤:
步骤一:获取初始点坐标:获取物体上特征点的三维坐标,特征点的个数大于3个,设T1时刻测得的N点坐标分别为:
P1(x1,y1,z1),P2(x2,y2,z2)......Pn(xn,yn,zn),
T2时刻测得的N点坐标分别为:
步骤二:特征点匹配:该匹配过程采用计算特征点到空间虚拟点的距离实现:设T1时刻空间虚拟点Pc(xc,yc,zc),取分别计算N个点到Pc的距离|P1Pc|、|P2Pc|......|PnPc|;设T2时刻空间虚拟点Pc'(xc',yc',zc’),取 分别计算N个点到Pc'的距离|P1’Pc’|、|P2’Pc’|......|Pn’Pc’|;将|P1’Pc’|与|P1Pc|、|P2Pc|……|PnPc|分别进行比较,距离相同或相差小于误差限的点视为匹配点对,若无匹配点对,则舍弃该特征点;将匹配好的特征点按照统一的顺序进行排列,后续计算过程依次读取即可;
步骤三:去重心化:物体姿态变化时物体上的点坐标满足:
Pi’=R*Pi+t (1)
上式对上述虚拟点亦成立,则:
Pc’=R*Pc+t (2)
式(1)减去式(2)得:
Pi’-Pc’=R*(Pi-Pc) (3)
N点联立后可得方程组:
即:
步骤四:实现多点间的平差优化。
所述步骤四采用奇异值分解方法求解方程(4)得到旋转矩阵R,在矩阵病态的情况下,求取最小二乘解中存在的唯一最小范数解,实现多点间的平差优化。
所述奇异值分解具体方法为:将矩阵奇异值分解,则R=U*VT,U、V为奇异值分解后的两正交矩阵,由式(1)求得平移矩阵t。
由旋转矩阵R求解旋转角的过程通过非线性方程的优化求解实现。
本发明所取得的有益效果为:
本发明所述多特征点位置姿态冗余解算方法以特征点在视觉测量系统中的三维坐标为输入条件,获取数据后通过计算特征点到空间虚拟点的距离寻找匹配点对,若所有特征点均能找到匹配点对,则直接进行去重心化操作;若无法找到匹配点对,则该点被自动舍弃,记录匹配点对个数,动态调整后续算法数据入口大小,由剩余点解算该时刻的姿态位置信息;完成匹配后,通过去重心化实现平移信息和旋转信息的分离,单独解算旋转矩阵;为了消除病态矩阵的影响,求解优化最小二乘解,采用了SVD方法,进而通过非线性方程的优化平差算法求出六自由度位置姿态信息;至此,算法完成了一个解算周期,通过该周期的反复循环运算可以实现位姿信息的连续动态实时输出。本发明解决了物体空间位置姿态测量的六自由度解算问题,提高算法精度的同时使算法保持较高的实时性能。实验结果显示,当采用的特征光点达到5个时,该姿态测量算法的均方根误差保持在0.05°以内,而刷新速度达到200帧/秒。且数据采集过程的局部测量点丢失不影响解算功能,鲁棒性好,数据准确可靠。
附图说明
图1为本发明所述多特征点位置姿态冗余解算方法流程图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
由刚体变换原理可知,物体姿态变化时物体上的点坐标满足:
Pi’=R*Pi+t
其中R为旋转矩阵,t为平移矩阵。
其中α,β,γ分别为绕x,y,z轴的旋转角; xt,yt,zt分别为沿x,y,z轴的平移量。
通过立体视觉技术获取三个以上特征点的坐标,利用上述几何关系建立方程即可求解旋转矩阵及平移矩阵,实现姿态解算。
如图1所示,本发明所述多特征点位置姿态冗余解算方法包括如下步骤:
步骤一:获取初始点坐标:通过立体视觉技术获取物体上特征点的三维坐标,要求特征点的个数大于3个,以下均以N个特征点为例介绍技术方案,设T1时刻测得的N点坐标分别为:P1(x1,y1,z1),P2(x2,y2,z2)……Rn(xn,yn,zn),T2时刻测得的N点坐标分别为:
步骤二:特征点匹配:立体视觉设备输出的点坐标顺序是按照坐标顺序排序的,物体姿态发生变化后,会导致不同时刻输出点坐标顺序不一致,如T1时刻为Pl,P2,P3......Pn,T2时刻为则需要利用特征点间的空间约束关系,匹配不同时刻的特征点排序。该匹配过程采用计算特征点到空间虚拟点的距离实现,首先设T1时刻空间虚拟点Pc(xc,yc,zc),取 分别计算N个点到Pc的距离|P1Pc|、|P2Pc|……|PnPc|;同理,设T2时刻空间虚拟点Pc’(xc’,yc’,zc’),取 分别计算N个点到Pc’的距离|P1’Pc’|、|P2’Pc’|......|Pn'Pc’|。将|P1’Pc’|与|P1Pc|、|P2Pc|......|PnPc|分别进行比较,距离相同(或相差小于误差限)的点视为匹配点对,例如-0.01<|P1'Pc’|-|P1Pc<0.01,则判断P1与P′1为匹配点对,若无匹配点对,则证明立体视觉测量特征点有误,舍弃该特征点。以此方法依次判断所有特征点间距,实现特征点匹配。该算法步骤的设计提高了系统的鲁棒性,在特征点采集过程中局部测量点丢失和错乱不会影响解算功能。将匹配好的特征点按照统一的顺序进行排列,后续计算过程依次读取即可。
步骤三:去重心化:物体姿态变化时物体上的点坐标满足:
Pi’=R*Pi+t (1)
上式对上述虚拟点亦成立,则:
Pc'=R*Pc+t (2)
式(1)减去式(2)得:
Pi'-Pc’=R*(Pi-Pc) (3)
式(3)分离了物体的平移量,仅与旋转矩阵相关。
N点联立后可得方程组:
即:
步骤四:平差优化:若直接用最小二乘法优化则会因为矩阵奇异,其求取结果将不正确,而直接采用优化正交迭代的方法耗时较高。本文采用奇异值分解(SVD)方法求解方程(4)得到旋转矩阵R,在矩阵病态的情况下,求取最小二乘解中存在的唯一最小范数解,实现多点间的平差优化。将矩阵奇异值分解,则R=U*VT(U,V为奇异值分解后的两正交矩阵),由式(1)求得平移矩阵t。由旋转矩阵求解旋转角的过程可以通过非线性方程的优化求解实现,进一步优化坐标值的平差效果。
Claims (4)
1.一种多特征点位置姿态冗余解算方法,其特征在于:
根据刚体变换原理,物体姿态变化时物体上的点坐标满足:
Pi'=R*Pi+t
其中R为旋转矩阵,t为平移矩阵;
其中α,β,γ分别为绕x,y,z轴的旋转角; xt,yt,zt分别为沿x,y,z轴的平移量;
该方法包括如下步骤:
步骤一:获取初始点坐标:获取物体上特征点的三维坐标,特征点的个数大于3个,设T1时刻测得的N点坐标分别为:
P1(x1,y1,z1),R2(x2,y2,z2)......Pn(xn,yn,zn),
T2时刻测得的N点坐标分别为:
步骤二:特征点匹配:该匹配过程采用计算特征点到空间虚拟点的距离实现:设T1时刻空间虚拟点Pc(xc,y。,zc),取分别计算N个点到Pc的距离|P1Pc|、|P2Pc|......|PnPc|;设T2时刻空间虚拟点Pc’(xc’,yc’,zc’),取 分别计算N个点到Pc'的距离|P1’Pc’|、|P2’Pc’|......|Pn’Pc’|;将|P1’Pc’|与|P1Pc|、|P2Pc|......|PnPc|分别进行比较,距离相同或相差小于误差限的点视为匹配点对,若无匹配点对,则舍弃该特征点;将匹配好的特征点按照统一的顺序进行排列,后续计算过程依次读取即可;
步骤三:去重心化:物体姿态变化时物体上的点坐标满足:
Pi'=R*Pi+t (1)
上式对上述虚拟点亦成立,则:
Pc’=R*Pc+t (2)
式(1)减去式(2)得:
Pi’-Pc’=R*(Pi-Pc) (3)
N点联立后可得方程组:
即:
步骤四:实现多点间的平差优化。
2.根据权利要求1所述的多特征点位置姿态冗余解算方法,其特征在于:所述步骤四采用奇异值分解方法求解方程(4)得到旋转矩阵R,在矩阵病态的情况下,求取最小二乘解中存在的唯一最小范数解,实现多点间的平差优化。
3.根据权利要求2所述的多特征点位置姿态冗余解算方法,其特征在于:所述奇异值分解具体方法为:将矩阵奇异值分解,则R=U*VT,U、V为奇异值分解后的两正交矩阵,由式(1)求得平移矩阵t。
4.根据权利要求1所述的多特征点位置姿态冗余解算方法,其特征在于:由旋转矩阵R求解旋转角的过程通过非线性方程的优化求解实现。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310367522.0A CN104424382B (zh) | 2013-08-21 | 2013-08-21 | 一种多特征点位置姿态冗余解算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310367522.0A CN104424382B (zh) | 2013-08-21 | 2013-08-21 | 一种多特征点位置姿态冗余解算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104424382A true CN104424382A (zh) | 2015-03-18 |
CN104424382B CN104424382B (zh) | 2017-09-29 |
Family
ID=52973332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310367522.0A Active CN104424382B (zh) | 2013-08-21 | 2013-08-21 | 一种多特征点位置姿态冗余解算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104424382B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105956074A (zh) * | 2016-04-28 | 2016-09-21 | 北京航空航天大学 | 邻近位姿融合引导的单幅图像场景六自由度定位方法 |
CN108700947A (zh) * | 2016-05-18 | 2018-10-23 | 谷歌有限责任公司 | 用于并发测距和建图的系统和方法 |
CN113028987A (zh) * | 2021-03-03 | 2021-06-25 | 中国科学院光电技术研究所 | 一种基于激光测距仪的高精度六自由度测量方法及装置 |
CN116046017A (zh) * | 2023-01-18 | 2023-05-02 | 上汽通用五菱汽车股份有限公司 | 一种测量路径的校准方法、装置、存储介质和计算机设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101419055A (zh) * | 2008-10-30 | 2009-04-29 | 北京航空航天大学 | 基于视觉的空间目标位姿测量装置和方法 |
CN101441769A (zh) * | 2008-12-11 | 2009-05-27 | 上海交通大学 | 单目摄像机实时视觉定位方法 |
CN101464134A (zh) * | 2009-01-16 | 2009-06-24 | 哈尔滨工业大学 | 一种空间目标三维位姿视觉测量方法 |
CN101763632A (zh) * | 2008-12-26 | 2010-06-30 | 华为技术有限公司 | 摄像机标定的方法和装置 |
US20100164807A1 (en) * | 2008-12-30 | 2010-07-01 | Industrial Technology Research Institute | System and method for estimating state of carrier |
-
2013
- 2013-08-21 CN CN201310367522.0A patent/CN104424382B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101419055A (zh) * | 2008-10-30 | 2009-04-29 | 北京航空航天大学 | 基于视觉的空间目标位姿测量装置和方法 |
CN101441769A (zh) * | 2008-12-11 | 2009-05-27 | 上海交通大学 | 单目摄像机实时视觉定位方法 |
CN101763632A (zh) * | 2008-12-26 | 2010-06-30 | 华为技术有限公司 | 摄像机标定的方法和装置 |
US20100164807A1 (en) * | 2008-12-30 | 2010-07-01 | Industrial Technology Research Institute | System and method for estimating state of carrier |
CN101464134A (zh) * | 2009-01-16 | 2009-06-24 | 哈尔滨工业大学 | 一种空间目标三维位姿视觉测量方法 |
Non-Patent Citations (4)
Title |
---|
CHIEN-PING LU,ET AL.: "《Fast and Globally Convergent Pose Estimation from Video Image》", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
李江游: "《双目视觉位姿估计算法研究》", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
杨志菊,等: "《飞行器姿态解算方法及仿真研究》", 《辽宁工业大学学报(自然科学版)》 * |
赖鹏: "《基于视觉的运动目标位姿实时测量系统研究》", 《中国优秀硕士学位论文全文数据库 信息科技辑 》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105956074A (zh) * | 2016-04-28 | 2016-09-21 | 北京航空航天大学 | 邻近位姿融合引导的单幅图像场景六自由度定位方法 |
CN108700947A (zh) * | 2016-05-18 | 2018-10-23 | 谷歌有限责任公司 | 用于并发测距和建图的系统和方法 |
US11734846B2 (en) | 2016-05-18 | 2023-08-22 | Google Llc | System and method for concurrent odometry and mapping |
CN113028987A (zh) * | 2021-03-03 | 2021-06-25 | 中国科学院光电技术研究所 | 一种基于激光测距仪的高精度六自由度测量方法及装置 |
CN116046017A (zh) * | 2023-01-18 | 2023-05-02 | 上汽通用五菱汽车股份有限公司 | 一种测量路径的校准方法、装置、存储介质和计算机设备 |
CN116046017B (zh) * | 2023-01-18 | 2024-05-07 | 上汽通用五菱汽车股份有限公司 | 一种测量路径的校准方法、装置、存储介质和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN104424382B (zh) | 2017-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10762645B2 (en) | Stereo visual odometry method based on image gradient joint optimization | |
CN103386683B (zh) | 一种基于Kinect的体感控制机械臂方法 | |
CN105806315B (zh) | 基于主动编码信息的非合作目标相对测量系统及测量方法 | |
CN104424382A (zh) | 一种多特征点位置姿态冗余解算方法 | |
CN101435732B (zh) | 一种基于双目光流的空间目标旋转轴及质心估计方法 | |
CN109543703A (zh) | 传感器数据处理的方法及装置 | |
CN103411589A (zh) | 一种基于四维实数矩阵的三维图像匹配导航方法 | |
CN103729564A (zh) | 一种基于粒子图像测速技术的压力场计算方法和装置 | |
CN103729510B (zh) | 基于内蕴变换的三维复杂模型精确镜像对称性计算方法 | |
CN103778632A (zh) | 一种基于fpga的立体匹配方法 | |
CN103075977A (zh) | 双目立体视觉系统中的点云数据的自动拼合算法 | |
Zhang | Cameras and inertial/magnetic sensor units alignment calibration | |
CN107862733A (zh) | 基于视线更新算法的大规模场景实时三维重建方法和系统 | |
CN103438907B (zh) | 一种星敏感器六自由度像平面误差的在轨标定方法 | |
CN106595595B (zh) | 一种基于深度传感器的室内机器人定向方法 | |
CN106707967B (zh) | 基于近似标准展开式的三维轮廓误差估计方法及装置 | |
CN104408773A (zh) | 一种结构化网格非匹配界面插值的方法 | |
CN109360267A (zh) | 一种薄物体快速三维重建方法 | |
Wu et al. | Correspondence matching and time delay estimation for hand-eye calibration | |
CN103854015A (zh) | 基于联合稀疏描述的多姿态三维人脸识别方法 | |
WO2018214179A1 (zh) | 低维度的集束调整计算方法与系统 | |
CN106378778A (zh) | 一种采用马达代数求解机械臂运动学的方法 | |
CN109918744A (zh) | 一种基于半拉格朗日和径向基函数的无网格格子波尔兹曼方法 | |
CN106600641B (zh) | 基于多特征融合的嵌入式视觉伺服控制方法 | |
Fan et al. | 3D reconstruction of weak texture surface based on binocular vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |