CN111024072B - 一种基于深度学习的卫星地图辅助导航定位方法 - Google Patents
一种基于深度学习的卫星地图辅助导航定位方法 Download PDFInfo
- Publication number
- CN111024072B CN111024072B CN201911381866.0A CN201911381866A CN111024072B CN 111024072 B CN111024072 B CN 111024072B CN 201911381866 A CN201911381866 A CN 201911381866A CN 111024072 B CN111024072 B CN 111024072B
- Authority
- CN
- China
- Prior art keywords
- camera
- unmanned aerial
- aerial vehicle
- landmark
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000013135 deep learning Methods 0.000 title claims abstract description 10
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 230000008569 process Effects 0.000 claims abstract description 12
- 238000001914 filtration Methods 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 8
- 238000006243 chemical reaction Methods 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 23
- 238000005259 measurement Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000001629 suppression Effects 0.000 claims description 6
- 230000007704 transition Effects 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000012937 correction Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 claims description 2
- 230000006872 improvement Effects 0.000 claims description 2
- 238000007621 cluster analysis Methods 0.000 claims 1
- 238000004519 manufacturing process Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明为一种基于深度学习的卫星地图辅助导航定位方法,所述方法应用于无人机上,解决GNSS失锁时的导航定位问题。包括:步骤一,根据惯性导航设备的漂移误差,在飞行区域内选取图像地标点。步骤二,根据地标点处的卫星遥感图像建立目标检测数据集,并用改进的YOLO v3进行训练。步骤三,飞行过程中,根据训练好的模型及模型参数,检测位置信息已知的地标点,经坐标转换关系得到无人机的位置。步骤四,采用卡尔曼滤波将其与INS系统输出的位置参数进行融合,实现组合导航。本发明针对无人机GNSS失锁的情况,利用目标检测实现辅助导航定位,有效地解决了单INS系统的累积漂移误差问题。
Description
技术领域
本发明涉及无人机领域,尤其涉及一种基于深度学习的卫星地图辅助导航定位领域,属于无人机、自主导航与目标检测等技术领域。
背景技术
无人机航线飞行中,惯性导航设备如未做修正则会形成累积漂移误差,目前常见的解决方案之一为INS/GNSS组合导航,但在复杂的电磁环境中,GNSS信号容易受到干扰。随着计算机视觉的发展,且视觉传感器几乎不受电磁环境的影响,视觉导航技术近些年得到了广泛研究与应用。在环境未知以及任务区域较小的情况下,可以应用SLAM(simultaneouslocalization and mapping)进行地图构建与定位。针对无人机在复杂电磁环境下的定位问题,XiJia Liu等人提出了间隔性的存储航线上的已知地图,并用改进的SIFT提取这些图像的特征,飞行过程中将实时航拍图像与该特征集进行匹配,经过坐标求解后得到无人机的实时位置,该方法不足的是遥感图像的特征提取与匹配效果不佳,且存储大量的特征信息对无人机机载计算机的内存是一个很大的消耗。近些年来随着深度学习的发展,CNN在图像分类、目标检测等领域有快速的发展,表明了CNN在图片特征提取方面有良好的表现。Redmon在2016年提出的YOLO目标检测算法,将整张图像输入到神经网络中进行不同区域的划分,预测目标的边界框和类别,实现端到端的优化,其在VOC2007数据集上取得了63.4%的准确率,帧速率可达45frame/s。人常常根据眼睛所见的标志建筑物或道路等确定自己所处的位置,无人机实时的航拍图像相当于眼睛所见,因此无人机定位问题可转换成目标检测问题。
发明内容
本发明提出了一种基于深度学习的卫星地图辅助导航定位方法,该方法可及时修正惯性导航设备的累积漂移误差,实现视觉与INS的组合导航。
本发明采用的技术方案是:一种基于深度学习的卫星地图辅助导航定位方法,包括以下步骤:
步骤1:确定无人机相对固定的飞行区域,在飞行区域内选取具有显著特征的作为地标(如飞行区域内选取具有显著特征的道路,湖泊,地面建筑等),以卫星遥感图像为图像源,制作这些地标的目标检测数据集;
步骤2:用改进的YOLO v3对目标检测数据集进行训练,将训练好的模型以及各地标的位置信息一同存入无人机的机载嵌入式设备中;
步骤3:飞行过程中,检测无人机实时航拍图像中预先训练好的地标。当有地标被成功检测到后计算得出无人机的位置;
步骤4:根据步骤3得到位置对INS系统的位置误差进行修正。
作为本发明的优选方案,步骤1中的目标检测数据集是利用Google Earth Pro软件从不同位置、不同倾斜角度、不同视角高度、不同罗盘角度获取。目标检测数据集的制作还包括将这些图像在LabelImg软件上用矩形框做标注。
本发明针对无人机GNSS失锁的情况,利用目标检测实现辅助导航定位,有效地解决了单INS系统的累积漂移误差问题。该方法可以克服现有技术中遥感图像的特征提取与匹配效果不佳的问题,同时无需存储大量的特征信息,极大了减少了无人机机载计算机内存消耗。
附图说明
图1是本发明实施例的系统整体框架示意图;
图2是本发明实施例采用的目标检测模型结构示意图;
图3是坐标系与成像几何示意图;
图4是本发明实施例航线飞行时水平位置偏差仿真示意图。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步阐述和说明。本发明中各个实施方式的技术特征在没有相互冲突的前提下,均可进行相应组合。
本发明实例提供一种基于深度学习的卫星地图辅助导航定位方法,如图1所示,包括:
步骤1:选取航线上的地标点制作图像数据集,在目标区域内均匀地选取9个具有明显特征的地标,从Google Earth Pro软件获取这9个地标不同位置、不同倾斜角度、不同视角高度、不同罗盘角度的卫星遥感图像,通过旋转角度、水平翻转、调整饱和度、调整曝光量、调整色彩等对数据集进行扩充,得到数据集样本总数为819,其中各地标图片数量均为1∶1,对这些图片数据集的地标进行标注。
步骤2:对制作的数据集用改进的YOLO v3进行训练。YOLO v3模型结构如图2所示,其中包括特征提取层以及三个尺度的预测,在每个尺度预测的通道数都为42。本发明实例先验框的个数为4,其参数分别为(29,50),(51,80),(53,134),(77,96)。深度学习的框架采用darknet,训练时改进的YOLO v3网络参数如下:学习率初始值为0.001,当迭代次数分别达到2000与3000时,学习率分别缩小10倍。训练阶段采用动量项为0.9的异步随机梯度下降,每一批次包含16张图像,权重衰减正则项设置为0.0005。当迭代次数超过2000次时,损失值基本保持稳定,下降到约0.06,此时预测框与真实框的平均重叠率保持在0.8左右,网络的训练达到预期的效果。
步骤3:建立世界坐标系、相机坐标系、图像坐标系与像素坐标系的投影关系,如图3所示。飞行过程中,检测位置信息已知的地标,结合相机内参,姿态角以及当前飞行高度,求得无人机当前的位置。
步骤4:利用卡尔曼滤波,将视觉系统输出的位置信息与INS系统输出的位置信息进行融合,输出组合导航结果。假设加速度计漂移陀螺仪漂移εx=0.01deg/h,εy=0.015deg/h,测量误差均是高斯白噪声,视觉辅助系统得到的水平位置偏差在40米以内,组合导航仿真结果如图4所示。融合视觉系统得到的位置信息后,整个系统的水平位置偏差能下降一个数量级,INS的累积漂移误差得到及时地修正。
在本发明的具体实施例中,步骤2中对YOLO v3的改进包括:
(1)采用K-means算法对自制数据集进行聚类分析。定义K-means算法的代价函数J的计算公式为:
式中交并比IOU(box,centroid)表示簇中心与标注的样本框的交并比,m表示图片数据集中标注的样本框个数。
选取不同的聚类个数k,分别计算其代价值,根据代价值的变化趋势选取最优聚类个数k作为先验框的个数。
(2)将极大值抑制改为最大值抑制。YOLO v3训练过程中,对每个候选框计算一个置信度,计算式为:
每个候选框的综合得分为每个候选框的置信度与网格预测的类别信息相乘,计算式为:
式中Pr(classi|object)为每个网格预测的类别概率得分。
得到该分数后,设置阈值,滤掉得分低于阈值的候选框,对高于阈值的候选框进行最大值抑制,就得到各个地标最终的检测结果。
在本发明的具体实施例中,步骤3中无人机位置的计算过程如下:
步骤3.1:计算相机内参矩阵K。
步骤3.2:由相机姿态角计算世界坐标系到相机坐标系的正交旋转变换矩阵R。记Ψ为相机的偏航角,Θ为相机的偏航角,Φ为相机的滚转角,则:
步骤3.3:以检测到的地标中心点为原点建立世界坐标系,x轴指向正北方向,y轴指向正东方向,z轴指向地心构成右手系。无人机航线飞行过程中,高度h由气压高度计获取,相机姿态角由装在相机平台上的惯性测量单元获取,识别到的地标在图像中用矩形框框出。相机光心的世界坐标可近似表示为(x0,y0,-h),识别到的地标中心点世界坐标为(0,0,0),其在像素坐标系下的坐标为(uc,vc),根据世界坐标系到像素坐标系转换公式:
式中λ为投影深度。
消去λ得:
求解二元一次方程,计算出相机光心在世界坐标系下的坐标,即相对地标中心点的位置,进而得到无人机当前的位置。
在本发明的具体实施例中,步骤3.1中相机内参矩阵K的计算过程如下:
(1)制作一个间隔为0.25cm的棋盘。
(2)用相机从多个角度和方向拍摄棋盘,保证整个棋盘都被拍下,一共拍摄20张图片。
(3)将20张图片导入到Matlab工具箱Camera Calibration中,检测每一张图片中的特征点,即每一个小棋盘格的角点。
(4)对每一张图片的特征点进行匹配,计算得出相机内参矩阵K。
在本发明的具体实施例中,步骤4中对INS系统位置误差的修正是采用松组合的方式,利用卡尔曼滤波对视觉系统与INS系统的位置信息进行融合,方法如下:
步骤4.1:构建INS系统误差状态向量X:
式中δvx,δvy,δvz分别表示沿东北天三个方向的速度误差;φx,φy,φz为平台的姿态角误差;δL,δλ,δh分别表示纬度误差、经度误差及高度误差;εxb,εyb,εzb为机体坐标系三个轴向的陀螺的随机漂移;为机体坐标系三个轴向的加速度计的随机漂移。
步骤4.2:建立INS系统的误差状态方程:
式中F(t)为系统状态转移矩阵,W(t)为噪声矩阵。
步骤4.3:若只有INS系统,利用给定的初始值X0和P0以及状态转移矩阵进行卡尔曼滤波的预测更新:
步骤4.4:若检测到地标点,以视觉系统得到的位置与INS系统解算出的位置之差作为卡尔曼滤波器的观测值,建立量测方程:
Z(t)=H(t)X(t)+V(t)
利用上述量测方程进行卡尔曼滤波的更新:
式中Kk为k时刻卡尔曼增益,Hk为k时刻量测矩阵,Rk为k时刻视觉系统的噪声方差阵,Zk为k时刻观测值。
以上所述的实施例只是本发明的一种较佳的方案,然其并非用以限制本发明。有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型。因此凡采取等同替换或等效变换的方式所获得的技术方案,均落在本发明的保护范围内。
Claims (4)
1.一种基于深度学习的卫星地图辅助导航定位方法,其特征在于:包括以下步骤:
步骤1:确定无人机的飞行区域,在飞行区域内选取具有显著特征的地标,以卫星遥感图像为图像源,制作这些地标的目标检测数据集;
步骤2:用改进的YOLO v3对目标检测数据集进行训练,将训练好的模型以及各地标的位置信息一同存入无人机的机载嵌入式设备中;
对YOLO v3的改进包括:
(1)采用K-means算法对自制数据集进行聚类分析,定义K-means算法的代价函数J的计算公式为:
式中交并比IOU(box,centroid)表示簇中心与标注的样本框的交并比,m表示图片数据集中标注的样本框个数;
选取不同的聚类个数k,分别计算其代价值,根据代价值的变化趋势选取最优聚类个数k作为先验框的个数;
(2)将极大值抑制改为最大值抑制,
YOLO v3训练过程中,对每个候选框计算一个置信度,计算式为:
每个候选框的综合得分为每个候选框的置信度与网格预测的类别信息相乘,计算式为:
式中Pr(classi|object)为每个网格预测的类别概率得分;
得到该分数后,设置阈值,滤掉得分低于阈值的候选框,对高于阈值的候选框进行最大值抑制,就得到各个地标最终的检测结果;
步骤3:飞行过程中,检测无人机实时航拍图像中预先训练好的地标;当有地标被成功检测到后经坐标转换关系计算得出无人机的位置;
步骤4:根据步骤3得到的位置对INS系统的位置误差进行修正。
2.根据权利要求1所述的一种基于深度学习的卫星地图辅助导航定位方法,其特征在于:步骤1中的目标检测数据集是利用Google Earth Pro软件从不同位置、不同倾斜角度、不同视角高度、不同罗盘角度获取,目标检测数据集的制作还包括将这些图像中的地标在LabelImg软件上用矩形框做标注。
3.根据权利要求1所述的一种基于深度学习的卫星地图辅助导航定位方法,其特征在于:步骤3中无人机位置的计算过程如下:
步骤3.1:计算相机内参矩阵K;
步骤3.2:由相机姿态角计算世界坐标系到相机坐标系的正交旋转变换矩阵R,记Ψ为相机的偏航角,Θ为相机的偏航角,Φ为相机的滚转角,则:
步骤3.3:以检测到的地标中心点为原点建立世界坐标系,x轴指向正北方向,y轴指向正东方向,z轴指向地心构成右手系,无人机航线飞行过程中,高度h由气压高度计获取,相机姿态角由装在相机平台上的惯性测量单元获取,识别到的地标在图像中用矩形框框出,相机光心的世界坐标可近似表示为(x0,y0,-h),识别到的地标中心点世界坐标为(0,0,0),其在像素坐标系下的坐标为(uc,vc),根据世界坐标系到像素坐标系转换公式:
式中λ为投影深度;
消去λ得:
求解二元一次方程,计算出相机光心在世界坐标系下的坐标,即相对地标中心点的位置,进而得到无人机当前的位置。
4.根据权利要求1所述的一种基于深度学习的卫星地图辅助导航定位方法,其特征在于:步骤4中对INS系统位置误差的修正采用松组合的方式,利用卡尔曼滤波对视觉系统与INS系统的位置信息进行融合,方法如下:
步骤4.1:构建INS系统误差状态向量X:
式中δvx,δvy,δvz分别表示沿东北天三个方向的速度误差;φx,φy,φz为平台的姿态角误差;δL,δλ,δh分别表示纬度误差、经度误差及高度误差;εxb,εyb,εzb为机体坐标系三个轴向的陀螺的随机漂移;为机体坐标系三个轴向的加速度计的随机漂移;
步骤4.2:建立INS系统的误差状态方程:
式中F(t)为系统状态转移矩阵,W(t)为噪声矩阵;
步骤4.3:若只有INS系统,利用给定的初始值X0和P0以及状态转移矩阵进行卡尔曼滤波的预测更新:
步骤4.4:若检测到地标点,以视觉系统得到的位置与INS系统解算出的位置之差作为卡尔曼滤波器的观测值,建立量测方程:
Z(t)=H(t)X(t)+V(t)
利用上述量测方程进行卡尔曼滤波的更新:
式中Kk为k时刻卡尔曼增益,Hk为k时刻量测矩阵,Rk为k时刻视觉系统的噪声方差阵,Zk为k时刻观测值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911381866.0A CN111024072B (zh) | 2019-12-27 | 2019-12-27 | 一种基于深度学习的卫星地图辅助导航定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911381866.0A CN111024072B (zh) | 2019-12-27 | 2019-12-27 | 一种基于深度学习的卫星地图辅助导航定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111024072A CN111024072A (zh) | 2020-04-17 |
CN111024072B true CN111024072B (zh) | 2021-06-11 |
Family
ID=70194629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911381866.0A Active CN111024072B (zh) | 2019-12-27 | 2019-12-27 | 一种基于深度学习的卫星地图辅助导航定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111024072B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111637895B (zh) * | 2020-05-11 | 2021-10-01 | 北京控制工程研究所 | 一种基于q学习的导航观测目标选取方法 |
CN111832548B (zh) * | 2020-06-29 | 2022-11-15 | 西南交通大学 | 一种列车定位方法 |
CN113239936B (zh) * | 2021-04-26 | 2024-05-28 | 大连理工大学 | 一种基于深度学习与特征点提取的无人机视觉导航方法 |
CN113535996B (zh) * | 2021-05-27 | 2023-08-04 | 中国人民解放军火箭军工程大学 | 一种基于航拍图像的道路图像数据集制备方法及装置 |
CN113335341A (zh) * | 2021-05-31 | 2021-09-03 | 卡斯柯信号有限公司 | 基于gnss和电子地图拓扑结构的列车定位系统及方法 |
CN116518981B (zh) * | 2023-06-29 | 2023-09-22 | 中国人民解放军国防科技大学 | 基于深度学习匹配和卡尔曼滤波的飞行器视觉导航方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002532770A (ja) * | 1998-11-20 | 2002-10-02 | ジオメトリックス インコーポレイテッド | 映像に関連してカメラポーズを決定する方法及びシステム |
CN105652305B (zh) * | 2016-01-08 | 2018-02-06 | 深圳大学 | 一种动态环境下轨道检测平台的三维定位定姿方法及系统 |
CN108288014A (zh) * | 2017-01-09 | 2018-07-17 | 北京四维图新科技股份有限公司 | 道路智能提取方法和装置、提取模型构建方法及混合导航系统 |
CN107796391A (zh) * | 2017-10-27 | 2018-03-13 | 哈尔滨工程大学 | 一种捷联惯性导航系统/视觉里程计组合导航方法 |
CN109325454B (zh) * | 2018-09-28 | 2020-05-22 | 合肥工业大学 | 一种基于YOLOv3的静态手势实时识别方法 |
CN109409285B (zh) * | 2018-10-24 | 2021-11-09 | 西安电子科技大学 | 基于重叠切片的遥感视频目标检测方法 |
CN109540126B (zh) * | 2018-12-03 | 2020-06-30 | 哈尔滨工业大学 | 一种基于光流法的惯性视觉组合导航方法 |
CN110472467A (zh) * | 2019-04-08 | 2019-11-19 | 江西理工大学 | 基于YOLO v3的针对交通枢纽关键物体的检测方法 |
CN110287898B (zh) * | 2019-06-27 | 2023-04-18 | 苏州中科天启遥感科技有限公司 | 一种光学卫星遥感影像云检测方法 |
CN110455285A (zh) * | 2019-07-22 | 2019-11-15 | 深圳联合飞机科技有限公司 | 一种在卫星导航信号失效时的无人机导航方法及导航装置 |
CN110569762A (zh) * | 2019-08-27 | 2019-12-13 | 许昌许继软件技术有限公司 | 一种基于多级神经网络的销钉脱落检测方法及装置 |
-
2019
- 2019-12-27 CN CN201911381866.0A patent/CN111024072B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111024072A (zh) | 2020-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111024072B (zh) | 一种基于深度学习的卫星地图辅助导航定位方法 | |
CN106780699B (zh) | 一种基于sins/gps和里程计辅助的视觉slam方法 | |
Vallet et al. | Photogrammetric performance of an ultra light weight swinglet UAV | |
CN114216454B (zh) | 一种gps拒止环境下基于异源图像匹配的无人机自主导航定位方法 | |
KR102627453B1 (ko) | 위치 추정 장치 및 방법 | |
CN107690840B (zh) | 无人机视觉辅助导航方法及系统 | |
Konovalenko et al. | UAV Navigation On The Basis Of The Feature Points Detection On Underlying Surface. | |
US9495747B2 (en) | Registration of SAR images by mutual information | |
CN111426320B (zh) | 一种基于图像匹配/惯导/里程计的车辆自主导航方法 | |
CN109460046B (zh) | 一种无人机自然地标识别与自主着陆方法 | |
KR102239562B1 (ko) | 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템 | |
Troiani et al. | Low computational-complexity algorithms for vision-aided inertial navigation of micro aerial vehicles | |
CN106352897B (zh) | 一种基于单目视觉传感器的硅mems陀螺误差估计与校正方法 | |
CN115574816B (zh) | 仿生视觉多源信息智能感知无人平台 | |
CN111649737A (zh) | 一种面向飞机精密进近着陆的视觉-惯性组合导航方法 | |
CN113741503B (zh) | 一种自主定位式无人机及其室内路径自主规划方法 | |
JP2002532770A (ja) | 映像に関連してカメラポーズを決定する方法及びシステム | |
KR20210034253A (ko) | 위치 추정 장치 및 방법 | |
Zhu et al. | Fusing GNSS/INS/vision with a priori feature map for high-precision and continuous navigation | |
Wang et al. | Monocular vision and IMU based navigation for a small unmanned helicopter | |
CN112146627B (zh) | 在无特征表面上使用投影图案的飞行器成像系统 | |
KR20220150170A (ko) | 드론을 이용한 3차원 지도 제작 방법 | |
Brockers et al. | On-board absolute localization based on orbital imagery for a future mars science helicopter | |
CN111089580A (zh) | 一种基于协方差交叉的无人战车同时定位与地图构建方法 | |
CN113403942B (zh) | 一种基于标签辅助的桥梁检测无人机视觉导航方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |