CN109141396B - 辅助信息与随机抽样一致算法融合的无人机位姿估计方法 - Google Patents

辅助信息与随机抽样一致算法融合的无人机位姿估计方法 Download PDF

Info

Publication number
CN109141396B
CN109141396B CN201810775548.1A CN201810775548A CN109141396B CN 109141396 B CN109141396 B CN 109141396B CN 201810775548 A CN201810775548 A CN 201810775548A CN 109141396 B CN109141396 B CN 109141396B
Authority
CN
China
Prior art keywords
aerial vehicle
unmanned aerial
matrix
points
auxiliary information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810775548.1A
Other languages
English (en)
Other versions
CN109141396A (zh
Inventor
徐喜梅
黄大庆
徐诚
刘力冉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201810775548.1A priority Critical patent/CN109141396B/zh
Publication of CN109141396A publication Critical patent/CN109141396A/zh
Application granted granted Critical
Publication of CN109141396B publication Critical patent/CN109141396B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Navigation (AREA)

Abstract

本发明公开了一种辅助信息与随机抽样一致算法融合的无人机位姿估计方法,包括以下步骤:S1:利用GPS和IMU系统提供的无人机的辅助信息计算出本质矩阵;辅助信息包括位置和姿态信息;S2:无人机在不同角度对同一目标区域拍摄,利用SURF算法对相邻时刻拍摄的两幅航拍图像进行特征点提取与匹配,同时获得对应的匹配点集D,并对匹配点集D中的各个坐标点进行归一化处理;S3:得到满足精度要求的本质矩阵;S4:对获得的本质矩阵进行SVD分解得到各相邻时刻航拍图像间摄像机的平移向量和旋转矩阵,利用旋转矩阵求解无人机的三个姿态角,最终实现无人机的位姿估计。本发明的位姿估计具有较高的精度和鲁棒性。

Description

辅助信息与随机抽样一致算法融合的无人机位姿估计方法
技术领域
本发明涉及定位导航与控制技术领域,特别是涉及无人机位姿估计方法。
背景技术
传统的位姿估计方法是利用全球定位系统(GPS)、惯性测量系统(IMU)提供的数据来得到无人机的位姿信息。然而受器件本身条件的限制,单纯的利用惯导系统等无人机系统测量设备获取无人机的位姿信息,已不能有效的应对日益复杂的作业环境。近几年国内外众多专业人士提出利用丰富的视觉信息实现无人机的位姿估计,大致可分为基于非立体视觉的方法和基于立体视觉的方法两类,但单纯利用视觉信息不仅易受工作环境因素的影响,而且对丰富的视觉信息处理上,计算过程复杂难以实现对无人机的位姿进行实时监控,且位姿估计的精度上尚有待提高。因此有部分学者提出利用无人机自身的惯导系统和视觉信息做数据融合的方法,然而其实施起来比较复杂,技术研究上尚不够成熟,因此迫切需要更为有效、实用的无人机位姿估计方法。
发明内容
发明目的:本发明提出了一种解决现有无人机位姿估计技术中存在的缺陷的,辅助信息与随机抽样一致算法融合的无人机位姿估计方法。
技术方案:本发明所述的辅助信息与随机抽样一致算法融合的无人机位姿估计方法,包括以下步骤:
S1:利用GPS和IMU系统提供的无人机的辅助信息计算出本质矩阵;辅助信息包括位置和姿态信息;
S2:无人机在不同角度对同一目标区域拍摄,利用SURF算法对相邻时刻拍摄的两幅航拍图像进行特征点提取与匹配,同时获得对应的匹配点集D,并对匹配点集D中的各个坐标点进行归一化处理;
S3:将步骤S1获得的本质矩阵作为辅助信息与随机抽样一致算法相融合,初步剔除匹配点集D中存在的误匹配点,再利用随机抽样一致算法结合五点算法对本质矩阵进行迭代求解,最终得到满足精度要求的本质矩阵;
S4:对步骤S3中获得的本质矩阵进行SVD分解得到各相邻时刻航拍图像间摄像机的平移向量和旋转矩阵,利用旋转矩阵求解无人机的三个姿态角,最终实现无人机的位姿估计。
进一步,步骤S1中所述本质矩阵通过平移向量T和旋转矩阵R求得,平移向量T和旋转矩阵R分别由式(1)、(2)得到:
T=[x1-x0 y1-y0 z1-z0]T=[Tx Ty Tz]T (1)
式(1)中,(x0 y0 z0)为GPS系统输出的无人机首次拍摄获取图片I0时对应的无人机位置点坐标,(x1 y1 z1)为GPS系统输出的无人机拍摄获取图片I1时对应的无人机位置点坐标;Tx表示无人机在拍摄I0、I1的两相邻时刻位置点之间沿X轴方向的平移向量,Ty表示无人机在拍摄I0、I1的两相邻时刻位置点之间沿Y轴方向的平移向量,Tz表示无人机在拍摄I0、I1的两相邻时刻位置点之间沿Z轴方向的平移向量;
Figure GDA0003428336670000021
式(2)中,Rψ表示无人机在相邻时刻两位置点间绕X轴旋转的旋转矩阵,Rθ表示无人机在相邻时刻两位置点间绕Y轴旋转的旋转矩阵,
Figure GDA0003428336670000022
表示无人机在相邻时刻两位置点间绕Z轴旋转的旋转矩阵,ψ为偏航角,θ为俯仰角,
Figure GDA0003428336670000023
为横滚角。
进一步,所述步骤S3具体包括以下步骤:
S3.1:对步骤S2获得的匹配点集D中的所有匹配点进行归一化处理;
S3.2:根据式(3)计算出第n次迭代第i对匹配点ri与经本质矩阵En变化后的对应的匹配点ri'之间的距离
Figure GDA0003428336670000024
Figure GDA0003428336670000025
Figure GDA0003428336670000026
与预先设置好的阈值L比较:
Figure GDA0003428336670000027
时,记此点为内点;否则,记此点为外点;从而获得内点集合Dn;若内点数大于前次循环获得的内点数,则更新本质矩阵E;
S3.3:根据式(4)利用随机抽样一致算法计算满足置信率P的本质矩阵的最小迭代次数N:
Figure GDA0003428336670000031
式(4)中,ε为外点概率,S为每个样本中的匹配点的对数;
S3.4:利用五点算法计算本质矩阵,也即随机抽取S=5对匹配点计算出本质矩阵E;
S3.5:重复步骤S3.2-S3.4,迭代N次后获得最优本质矩阵。
进一步,所述步骤S3.2中,本质矩阵E更新过程中的初值由GPS和IMU系统提供的无人机位姿信息来提供。
进一步,所述步骤S4具体包括以下步骤:
S4.1:对步骤S3中获得的本质矩阵进行SVD分解,得到旋转矩阵R和平移向量T的初步解:R=UWVT或者R=UWTVT;T=u3或者T=-u3;U和V为3×3的正交矩阵;U内部的向量是正交的,称为左奇异向量,U的列为EET的正交特征向量;V内部的向量是正交的,称为右奇异向量,V的列为ETE的正交特征向量;E=Udiag(σ,σ,0)VT,σ为本质矩阵的奇异值,u3为矩阵U的最后一列,
Figure GDA0003428336670000032
S4.2:对经去除误匹配点之后最终获取的匹配点集中的特征点进行三维重建,通过三维点深度值为正来确定旋转矩阵R和平移向量T的唯一解;
S4.3:利用旋转矩阵R求解出无人机的三个姿态角:偏航角ψ、俯仰角θ、横滚角
Figure GDA0003428336670000033
有益效果:本发明公开了一种辅助信息与随机抽样一致算法融合的无人机位姿估计方法,与现有技术相比,具有如下的有益效果:
1)对比单纯利用GPS和IMU系统实现无人机位姿估计的方法,本发明弱化了在位姿估计中对GPS系统过度依赖,以及IMU器件存在的器件漂移、误差累积等问题对位姿估计的影响;
2)对比单纯利用视觉信息实现无人机位姿估计的方法,本发明具有较好的环境适应能力和抗干扰能力;
3)本发明在GPS、IMU与视觉信息的数据融合中,利用随机抽样一致算法结合五点算法计算无人机的位姿,本发明对此算法的处理使得位姿估计具有较高的精度和鲁棒性。
附图说明
图1为本发明具体实施方式中无人机在飞行状态下对同一目标区域不同角度的两次观测示意图;
图2为本发明具体实施方式中方法的流程图;
图3(a)为本发明具体实施方式中现有技术中的原始方法与本发明方法对无人机位姿估计的偏航角的误差对比图;
图3(b)为本发明具体实施方式中现有技术中的原始方法与本发明方法对无人机位姿估计的俯仰角的误差对比图;
图3(c)为本发明具体实施方式中现有技术中的原始方法与本发明方法对无人机位姿估计的横滚角的误差对比图。
具体实施方式
本具体实施方式公开了一种辅助信息与随机抽样一致算法融合的无人机位姿估计方法,如图2所示,包括以下步骤:
S1:利用GPS和IMU系统提供的无人机的辅助信息计算出本质矩阵;辅助信息包括位置和姿态信息;
S2:无人机在不同角度对同一目标区域拍摄,利用SURF算法对相邻时刻拍摄的两幅航拍图像进行特征点提取与匹配,同时获得对应的匹配点集D,并对匹配点集D中的各个坐标点进行归一化处理;
S3:将步骤S1获得的本质矩阵作为辅助信息与随机抽样一致算法相融合,初步剔除匹配点集D中存在的误匹配点,再利用随机抽样一致算法结合五点算法对本质矩阵进行迭代求解,最终得到满足精度要求的本质矩阵;
S4:对步骤S3中获得的本质矩阵进行SVD分解得到各相邻时刻航拍图像间摄像机的平移向量和旋转矩阵,利用旋转矩阵求解无人机的三个姿态角,最终实现无人机的位姿估计。
步骤S1中的本质矩阵通过平移向量T和旋转矩阵R求得,平移向量T和旋转矩阵R分别由式(1)、(2)得到:
T=[x1-x0 y1-y0 z1-z0]T=[Tx Ty Tz]T (1)
式(1)中,(x0 y0 z0)为GPS系统输出的无人机首次拍摄获取图片I0时对应的无人机位置点坐标,(x1 y1 z1)为GPS系统输出的无人机拍摄获取图片I1时对应的无人机位置点坐标;Tx表示无人机在拍摄I0、I1的两相邻时刻位置点之间沿X轴方向的平移向量,Ty表示无人机在拍摄I0、I1的两相邻时刻位置点之间沿Y轴方向的平移向量,Tz表示无人机在拍摄I0、I1的两相邻时刻位置点之间沿Z轴方向的平移向量;如图1为无人机对同一目标区域从不同的角度拍摄获取图像I0、I1
Figure GDA0003428336670000051
式(2)中,Rψ表示无人机在相邻时刻两位置点间绕X轴旋转的旋转矩阵,Rθ表示无人机在相邻时刻两位置点间绕Y轴旋转的旋转矩阵,
Figure GDA0003428336670000052
表示无人机在相邻时刻两位置点间绕Z轴旋转的旋转矩阵,ψ为偏航角,θ为俯仰角,
Figure GDA0003428336670000053
为横滚角。
步骤S3具体包括以下步骤:
S3.1:对步骤S2获得的匹配点集D中的所有匹配点进行归一化处理;
S3.2:根据式(3)计算出第n次迭代第i对匹配点ri与经本质矩阵En变化后的对应的匹配点ri'之间的距离
Figure GDA0003428336670000054
Figure GDA0003428336670000055
Figure GDA0003428336670000056
与预先设置好的阈值L比较:
Figure GDA0003428336670000057
时,记此点为内点;否则,记此点为外点;从而获得内点集合Dn;若内点数大于前次循环获得的内点数,则更新本质矩阵E;本质矩阵E更新过程中的初值由GPS和IMU系统提供的无人机位姿信息来提供;
S3.3:根据式(4)利用随机抽样一致算法计算满足置信率P的本质矩阵的最小迭代次数N:
Figure GDA0003428336670000061
式(4)中,ε为外点概率,S为每个样本中的匹配点的对数;
S3.4:利用五点算法计算本质矩阵,也即随机抽取S=5对匹配点计算出本质矩阵E;
S3.5:重复步骤S3.2-S3.4,迭代N次后获得最优本质矩阵。
步骤S4具体包括以下步骤:
S4.1:对步骤S3中获得的本质矩阵进行SVD分解,得到旋转矩阵R和平移向量T的初步解:R=UWVT或者R=UWTVT;T=u3或者T=-u3;U和V为3×3的正交矩阵;U内部的向量是正交的,称为左奇异向量,U的列为EET的正交特征向量;V内部的向量是正交的,称为右奇异向量,V的列为ETE的正交特征向量;E=Udiag(σ,σ,0)VT,σ为本质矩阵的奇异值,u3为矩阵U的最后一列,
Figure GDA0003428336670000062
S4.2:对经去除误匹配点之后最终获取的匹配点集中的特征点进行三维重建,通过三维点深度值为正来确定旋转矩阵R和平移向量T的唯一解;
S4.3:利用旋转矩阵R求解出无人机的三个姿态角:偏航角ψ、俯仰角θ、横滚角
Figure GDA0003428336670000063
下面利用MATLAB仿真对本发明的性能进行分析。
步骤S1的具体内容为:由GPS和IMU系统提供的无人机在两视点的位姿信息;利用SURF算法获取两幅航拍图像的匹配点集D,并匹配点集中的各个坐标点进行归一化处理;由GPS和IMU系统提供的无人机位姿信息计算本质矩阵的初值;利用公式(3)计算出此时的内点数和外点数及对应的外点概率ε,确定置信率P、S的初值;由公式(4)计算利用随机抽样一致算法在求解本质矩阵过程中的最小迭代次数N;以及摄像机的内参矩阵其表示形式为:
Figure GDA0003428336670000071
假设摄像机内参固定,其中fu=f/du,fv=f/dv,分别表示焦距在像素坐标系的u轴和v轴方向上的尺度因子,其中f为像机焦距,u0,v0表示光学中心坐标点。
步骤S2的具体内容为:
①首先对图像进行预处理后用SURF算法检测每幅图像上的特征点并将其画出,
②利用SURF算法对两幅图像进行处理,筛选出较好的匹配点并画出匹配结果。
③采用原始方法即:经SURF算法获得的匹配点并进行归一化处理的基础上,再经随机抽样一致算法结合五点算法对匹配点进行进一步处理最终获得最优本质矩阵及其对应内点集,并对获取的内点进行匹配。
④采用本发明方法即:首先利用GPS、IMU系统提供的位姿信息计算对应的本质矩阵,采用SURF算法获取匹配点集D并进行归一化处理,然后,利用本质矩阵对匹配点的约束关系对匹配点集D中包含的误匹配点进行初次剔除获得内点集D0,在此基础上进一步利用随机抽样一致算法结合五点算法对本质矩阵进行优化最终获得最优本质矩阵,及其对应的内点集,并对内定进行匹配。
利用本发明方法和原始方法分别对25幅图进行处理求解出的无人机在各个拍摄位置点的位姿,并与无人机的实际位姿信息对比,分析两种算法位姿估计误差,其结果如图3所示,由实验结果可知本发明,能够在一定程度上提高位姿估计的精度,且在GPS和IMU系统提供的位姿信息的辅助下缩短了获取位姿信息的时间,提高了位姿估计的鲁棒性。

Claims (5)

1.辅助信息与随机抽样一致算法融合的无人机位姿估计方法,其特征在于:包括以下步骤:
S1:利用GPS和IMU系统提供的无人机的辅助信息计算出本质矩阵;辅助信息包括位置和姿态信息;
S2:无人机在不同角度对同一目标区域拍摄,利用SURF算法对相邻时刻拍摄的两幅航拍图像进行特征点提取与匹配,同时获得对应的匹配点集D;
S3:先将步骤S1获得的本质矩阵作为辅助信息与随机抽样一致算法相融合,初步剔除匹配点集D中存在的误匹配点;再利用随机抽样一致算法结合五点算法对本质矩阵进行迭代求解,最终得到满足精度要求的本质矩阵;
S4:对步骤S3中获得的本质矩阵进行SVD分解得到各相邻时刻航拍图像间摄像机的平移向量和旋转矩阵,利用旋转矩阵求解无人机的三个姿态角,最终实现无人机的位姿估计。
2.根据权利要求1所述的辅助信息与随机抽样一致算法融合的无人机位姿估计方法,其特征在于:步骤S1中所述本质矩阵通过平移向量T和旋转矩阵R求得,平移向量T和旋转矩阵R分别由式(1)、(2)得到:
T=[x1-x0 y1-y0 z1-z0]T=[Tx Ty Tz]T (1)
式(1)中,(x0 y0 z0)为GPS系统输出的无人机首次拍摄获取图片I0时对应的无人机位置点坐标,(x1 y1 z1)为GPS系统输出的无人机拍摄获取图片I1时对应的无人机位置点坐标;Tx表示无人机在拍摄I0、I1的两相邻时刻位置点之间沿X轴方向的平移向量,Ty表示无人机在拍摄I0、I1的两相邻时刻位置点之间沿Y轴方向的平移向量,Tz表示无人机在拍摄I0、I1的两相邻时刻位置点之间沿Z轴方向的平移向量;
Figure FDA0003456850300000011
式(2)中,Rψ表示无人机在相邻时刻两位置点间绕X轴旋转的旋转矩阵,Rθ表示无人机在相邻时刻两位置点间绕Y轴旋转的旋转矩阵,
Figure FDA0003456850300000012
表示无人机在相邻时刻两位置点间绕Z轴旋转的旋转矩阵,ψ为偏航角,θ为俯仰角,
Figure FDA0003456850300000021
为横滚角。
3.根据权利要求1所述的辅助信息与随机抽样一致算法融合的无人机位姿估计方法,其特征在于:所述步骤S3具体包括以下步骤:
S3.1:对步骤S2获得的匹配点集D中的所有匹配点进行归一化处理;
S3.2:根据式(3)计算出第n次迭代第i对匹配点ri与经本质矩阵En变化后的对应的匹配点ri'之间的距离
Figure FDA0003456850300000022
Figure FDA0003456850300000023
Figure FDA0003456850300000024
与预先设置好的阈值L比较:
Figure FDA0003456850300000025
时,记此点为内点;否则,记此点为外点;从而获得内点集合Dn;若内点数大于前次循环获得的内点数,则更新本质矩阵E;
S3.3:根据式(4)利用随机抽样一致算法计算满足置信率P的本质矩阵的最小迭代次数N:
Figure FDA0003456850300000026
式(4)中,ε为外点概率,S为每个样本中的匹配点的对数;
S3.4:利用五点算法计算本质矩阵,也即随机抽取S=5对匹配点计算出本质矩阵E;
S3.5:重复步骤S3.2-S3.4,迭代N次后获得最优本质矩阵。
4.根据权利要求3所述的辅助信息与随机抽样一致算法融合的无人机位姿估计方法,其特征在于:所述步骤S3.2中,本质矩阵E更新过程中的初值由GPS和IMU系统提供的无人机位姿信息来提供。
5.根据权利要求1所述的辅助信息与随机抽样一致算法融合的无人机位姿估计方法,其特征在于:所述步骤S4具体包括以下步骤:
S4.1:对步骤S3中获得的本质矩阵进行SVD分解,得到旋转矩阵R和平移向量T的初步解:R=UWVT或者R=UWTVT;T=u3或者T=-u3;U和V为3×3的正交矩阵;U内部的向量是正交的,称为左奇异向量,U的列为EET的正交特征向量;V内部的向量是正交的,称为右奇异向量,V的列为ETE的正交特征向量;E=Udiag(σ,σ,0)VT,σ为本质矩阵的奇异值,u3为矩阵U的最后一列,
Figure FDA0003456850300000031
S4.2:对经去除误匹配点之后最终获取的匹配点集中的特征点进行三维重建,通过三维点深度值为正来确定旋转矩阵R和平移向量T的唯一解;
S4.3:利用旋转矩阵R求解出无人机的三个姿态角:偏航角ψ、俯仰角θ、横滚角
Figure FDA0003456850300000032
CN201810775548.1A 2018-07-16 2018-07-16 辅助信息与随机抽样一致算法融合的无人机位姿估计方法 Active CN109141396B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810775548.1A CN109141396B (zh) 2018-07-16 2018-07-16 辅助信息与随机抽样一致算法融合的无人机位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810775548.1A CN109141396B (zh) 2018-07-16 2018-07-16 辅助信息与随机抽样一致算法融合的无人机位姿估计方法

Publications (2)

Publication Number Publication Date
CN109141396A CN109141396A (zh) 2019-01-04
CN109141396B true CN109141396B (zh) 2022-04-26

Family

ID=64800422

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810775548.1A Active CN109141396B (zh) 2018-07-16 2018-07-16 辅助信息与随机抽样一致算法融合的无人机位姿估计方法

Country Status (1)

Country Link
CN (1) CN109141396B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110689577B (zh) * 2019-09-30 2022-04-01 深圳市瑞立视多媒体科技有限公司 单相机环境中主动式刚体的位姿定位方法及相关设备
CN111160298B (zh) * 2019-12-31 2023-12-01 深圳市优必选科技股份有限公司 一种机器人及其位姿估计方法和装置
CN111260726A (zh) * 2020-02-07 2020-06-09 北京三快在线科技有限公司 一种视觉定位方法及装置
CN111649724B (zh) * 2020-06-04 2022-09-06 百度在线网络技术(北京)有限公司 基于移动边缘计算的视觉定位方法和装置
CN113052908B (zh) * 2021-04-16 2023-08-04 南京工业大学 一种基于多传感器数据融合的移动机器人位姿估计算法
CN113865579A (zh) * 2021-08-06 2021-12-31 湖南大学 无人机位姿参数的测量系统及方法
CN113781559B (zh) * 2021-08-31 2023-10-13 南京邮电大学 一种鲁棒的异常匹配点剔除方法及图像室内定位方法
CN114265427B (zh) * 2021-12-06 2024-02-02 江苏方天电力技术有限公司 一种基于红外图像匹配的巡检无人机辅助导航系统及方法
CN114812558B (zh) * 2022-04-19 2024-03-15 中山大学 一种结合激光测距的单目视觉无人机自主定位方法
CN115272494B (zh) * 2022-09-29 2022-12-30 腾讯科技(深圳)有限公司 相机与惯性测量单元的标定方法、装置和计算机设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102435188A (zh) * 2011-09-15 2012-05-02 南京航空航天大学 一种用于室内环境的单目视觉/惯性全自主导航方法
US9031782B1 (en) * 2012-01-23 2015-05-12 The United States Of America As Represented By The Secretary Of The Navy System to use digital cameras and other sensors in navigation
CN106709223A (zh) * 2015-07-29 2017-05-24 中国科学院沈阳自动化研究所 基于惯性引导采样的视觉imu方向估计方法
CN107065895A (zh) * 2017-01-05 2017-08-18 南京航空航天大学 一种植保无人机定高技术
CN107314771A (zh) * 2017-07-04 2017-11-03 合肥工业大学 基于编码标志点的无人机定位以及姿态角测量方法
CN107687850A (zh) * 2017-07-26 2018-02-13 哈尔滨工业大学深圳研究生院 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法
CN107869989A (zh) * 2017-11-06 2018-04-03 东北大学 一种基于视觉惯导信息融合的定位方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2430615A2 (en) * 2009-05-08 2012-03-21 Scientific Systems Company Inc. Method and system for visual collision detection and estimation
US8953847B2 (en) * 2010-10-01 2015-02-10 Saab Ab Method and apparatus for solving position and orientation from correlated point features in images
US10254118B2 (en) * 2013-02-21 2019-04-09 Regents Of The University Of Minnesota Extrinsic parameter calibration of a vision-aided inertial navigation system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102435188A (zh) * 2011-09-15 2012-05-02 南京航空航天大学 一种用于室内环境的单目视觉/惯性全自主导航方法
US9031782B1 (en) * 2012-01-23 2015-05-12 The United States Of America As Represented By The Secretary Of The Navy System to use digital cameras and other sensors in navigation
CN106709223A (zh) * 2015-07-29 2017-05-24 中国科学院沈阳自动化研究所 基于惯性引导采样的视觉imu方向估计方法
CN107065895A (zh) * 2017-01-05 2017-08-18 南京航空航天大学 一种植保无人机定高技术
CN107314771A (zh) * 2017-07-04 2017-11-03 合肥工业大学 基于编码标志点的无人机定位以及姿态角测量方法
CN107687850A (zh) * 2017-07-26 2018-02-13 哈尔滨工业大学深圳研究生院 一种基于视觉和惯性测量单元的无人飞行器位姿估计方法
CN107869989A (zh) * 2017-11-06 2018-04-03 东北大学 一种基于视觉惯导信息融合的定位方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Camera pose estimation based on three-view geometry constraint;Zhang Zhen-jie 等;《Journal of Zhejiang University (Engineering Science)》;20180131;第52卷(第1期);151-159 *
单目视觉/惯性室内无人机自主导航算法研究;庄曈;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》;20130215(第02期);C031-224 *
微型无人机视觉惯性导航;陈卓;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》;20160215(第02期);C031-107 *

Also Published As

Publication number Publication date
CN109141396A (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
CN109141396B (zh) 辅助信息与随机抽样一致算法融合的无人机位姿估计方法
CN109974693B (zh) 无人机定位方法、装置、计算机设备及存储介质
CN107481270B (zh) 乒乓球目标跟踪和轨迹预测方法、装置、存储介质和计算机设备
CN108428255B (zh) 一种基于无人机的实时三维重建方法
CN110047108B (zh) 无人机位姿确定方法、装置、计算机设备及存储介质
Li et al. A 4-point algorithm for relative pose estimation of a calibrated camera with a known relative rotation angle
CN110176032B (zh) 一种三维重建方法及装置
CN109472828B (zh) 一种定位方法、装置、电子设备及计算机可读存储介质
CN108519102B (zh) 一种基于二次投影的双目视觉里程计算方法
CN112837352B (zh) 基于图像的数据处理方法、装置及设备、汽车、存储介质
CN111897349A (zh) 一种基于双目视觉的水下机器人自主避障方法
CN111738032B (zh) 一种车辆行驶信息确定方法及装置、车载终端
CN111623773B (zh) 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
CN108900775B (zh) 一种水下机器人实时电子稳像方法
CN116468786B (zh) 一种面向动态环境的基于点线联合的语义slam方法
Kostavelis et al. Visual odometry for autonomous robot navigation through efficient outlier rejection
CN114549549B (zh) 一种动态环境下基于实例分割的动态目标建模跟踪方法
Zhang et al. Pose measurement for non-cooperative target based on visual information
CN111583342A (zh) 一种基于双目视觉的目标快速定位方法及装置
CN114663488A (zh) 一种基于深度学习的火箭助推器分离运动参数测量方法
CN113221953A (zh) 基于实例分割和双目深度估计的目标姿态识别系统与方法
CN117115271A (zh) 无人机飞行过程中的双目相机外参数自标定方法及系统
CN110634160B (zh) 二维图形中目标三维关键点提取模型构建及姿态识别方法
CN114119763A (zh) 一种用于自动驾驶车辆的Lidar标定方法及装置
CN113239936B (zh) 一种基于深度学习与特征点提取的无人机视觉导航方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant