CN113920186A - 一种低空无人机多源融合定位方法 - Google Patents

一种低空无人机多源融合定位方法 Download PDF

Info

Publication number
CN113920186A
CN113920186A CN202111192432.3A CN202111192432A CN113920186A CN 113920186 A CN113920186 A CN 113920186A CN 202111192432 A CN202111192432 A CN 202111192432A CN 113920186 A CN113920186 A CN 113920186A
Authority
CN
China
Prior art keywords
unmanned aerial
aerial vehicle
coordinates
information
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111192432.3A
Other languages
English (en)
Other versions
CN113920186B (zh
Inventor
关俊志
耿虎军
高峰
李晨阳
张泽勇
王雅涵
蔡迎哲
柴兴华
陈彦桥
彭会湘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 54 Research Institute
Original Assignee
CETC 54 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 54 Research Institute filed Critical CETC 54 Research Institute
Priority to CN202111192432.3A priority Critical patent/CN113920186B/zh
Publication of CN113920186A publication Critical patent/CN113920186A/zh
Application granted granted Critical
Publication of CN113920186B publication Critical patent/CN113920186B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种低空无人机多源融合定位方法,属于无人机自主飞行领域。该方法针对低空无人机的飞行高度等特点,提出了基于单目视觉与卫导、高度计融合的多源定位方法,首先通过无人机的位置变化恢复了单目视觉SLAM的尺度,然后通过将经纬度坐标系转换为东北天坐标系解决了两个坐标系之间的转换问题,成功解决了低空无人机在拒止环境中的自主定位难题。

Description

一种低空无人机多源融合定位方法
技术领域
本发明属于无人机自主飞行领域,特别是指一种低空无人机多源融合定位方法。
背景技术
随着信息科学的快速发展,无人机在人们的生活中得到了广泛的应用,无人机逐渐扩大了应用领域和研究范围,如灾后搜救、航空拍摄、农作物监测以及军事作战等多个领域。
现在无人机定位技术的实现方式主要是全球定位系统(Global PositionSystem,GPS)等。GPS定位有许多优点,如:定位方法比较成熟容易集成,在室外信号较好的情况下定位精度较高。但其有一个最主要的缺点:依赖外部信号,在GPS信号被遮挡,干扰或缺失的情况下定位会失效,无人机会失去控制甚至坠落。自主定位技术则是利用无人机自身携带的传感器,根据机器人起始位置以及每个时刻的位置与运动状态进行推算来实现定位,具有不受外部信号影响的特点,但是自主定位由于计算的是相邻时刻的相对位置,系统在运行过程中会存在累计误差。因此,研究多源信息融合的定位技术是实现无人机实时、精确、自主定位的重要工作。
无人机根据任务飞行高度的不同主要分为超低空无人机、超低空无人机(0-100m)、低空无人机(100-1000m)、中空无人机(1000-7000m)、高空无人机(7000-18000m)、超高无人机(大于18000m)。低空无人机由于飞行高度限制,在飞行过程中外界定位信号(GPS等),容易受到干扰,因此急需开发稳定可到的定位方法。自主定位所依赖的传感器主要分为两大类:基于单目相机、双目相机、RGBD相机的方法和基于激光雷达的方法。但是,RGBD和双目相机工作距离受限于基线长度,工作距离有限,激光雷达受限于重量较大以及价格因素,在低成本设备、便携的移动设备上的应用受到限制。
发明内容
为了解决上述技术问题,本发明提供了一种低空无人机多源融合定位方法,该方法融合单目视觉及GPS、高度计的高精度定位信息实现无人机自主定位,具有成本低、体积小、实时性较高、可获取的信息丰富可靠等优点,在实用上更具优势。
为了实现上述目的,本发明所采用的技术方案为:
一种低空无人机多源融合定位方法,包括以下步骤:
(1)在卫星导航定位正常的情况下,手动操作无人机爬升到不同高度的多个不同位置;
(2)机载嵌入式平台启动图像采集程序,并将图像以ROS节点形式发布,地面计算机通过网络与机载嵌入式计算平台连接,实时订阅图像信息,进行SLAM自主定位,并将SLAM定位坐标以ROS节点形式发布;
(3)地面计算机同时接收无人机组播的GPS和高度计信息,将经纬度坐标转换为局部笛卡尔坐标,并以ROS节点形式发布;
(4)地面计算机的融合程序订阅步骤(2)和(3)中发布的坐标信息,恢复SLAM尺度信息,并计算SLAM定位坐标与局部笛卡尔坐标之间的转换矩阵;
(5)利用转换矩阵将步骤(2)发布的SLAM定位坐标转换为局部笛卡尔坐标,并与步骤(3)发布的局部笛卡尔坐标进行信息融合,计算得到融合后的无人机位置。
进一步的,步骤(2)的具体方式为:
(201)启动相机,采集图像,将图像序列以ROS节点形式发布;
(202)地面计算机的定位程序订阅图像信息;
(203)地面计算机对图像序列进行特征检测,得到特征点的位置信息和描述子信息;
(204)利用特征跟踪方法对图像中的特征点进行跟踪,得到同一特征点在不同图像中的坐标;
(205)通过多视图几何方法计算不同图像之间的位姿变换;
(206)使用光束平差法对无人机位姿进行优化,得到无人机位置为
Figure BDA0003301704280000021
将该位置作为定位结果以ROS节点形式发布。
进一步的,步骤(3)的具体方式为:
(301)地面计算机接收无人机组播的带有时间戳信息的经纬度坐标和高程信息;
(302)假设初始时刻的经纬度坐标为(x0,y0),高度为h0,t时刻的经纬度坐标为(xt,yt),高度为ht,以初始时刻位置为原点,建立笛卡尔坐标系,即东北天坐标系,在东北天坐标系下,t时刻无人机的坐标为(Xt,Yt,Zt),地球半径为r,其中:
Xt=πr(xt-x0)/180
Yt=πr cos(x0π/180)(yt-y0)/180
Zt=ht-h0
(303)将转换后的坐标(Xt,Yt,Zt)以ROS节点形式发布。
进一步的,步骤(4)的具体方式为:
(401)地面计算机的融合程序订阅步骤(2)和(3)中发布的坐标信息,并根据时间戳信息进行同步化;
(402)在不同时刻t1,t2,无人机在SLAM坐标系位置分别为
Figure BDA0003301704280000031
Figure BDA0003301704280000032
两个位置之间的欧式距离为ds,在东北天坐标系中的位置分别为
Figure BDA0003301704280000033
Figure BDA0003301704280000034
距离为d,根据在无人机在两个不同位置之间的距离计算得到SLAM的尺度信息为:
λ=d/ds
通过多组无人机在不同时刻不同位置的坐标求解尺度的均值;
(403)令pt=(Xt,Yt,Zt),
Figure BDA0003301704280000035
两个坐标之间的转换关系为:
Figure BDA0003301704280000036
其中,R为两个坐标系之间的旋转矩阵,c为平移向量;c和R的求解过程如下:
1)无人机在飞行过程中,由不同时刻的pt
Figure BDA0003301704280000037
生成三维点云,计算两个点云的中心点
Figure BDA0003301704280000038
Figure BDA0003301704280000039
然后将两个点云的坐标原点分别移动到点云中心,得到t时刻无人机的大地坐标qt和SLAM坐标
Figure BDA00033017042800000310
Figure BDA00033017042800000311
Figure BDA00033017042800000312
2)联合
Figure BDA00033017042800000313
Figure BDA00033017042800000314
通过奇异值分解算法计算得到R;
3)计算平移向量
Figure BDA00033017042800000315
本发明相对于现有技术的有益效果是:
1、本发明提供了一种有效的高精度定位方法,针对低空无人机飞行高度等特点,选定单目相机作为主要传感器,通过单目SLAM实现在拒止环境中的低空无人机自主定位。
2、尺度计算、坐标转换一直以来都是本领域的研究热点,本发明首先将无人机GPS提供的经纬度信息转换为东北天坐标系,并提出了基于无人机位置变化的尺度计算方法。针对坐标转换问题,本发明提出通过点云对齐方式来求解坐标转换矩阵。这种方式是对现有技术的一种重要创新。
附图说明
图1为本发明实施例中低空无人机多源融合定位方法的流程图。
图2为本发明实施例中硬件系统架构图。
具体实施方法
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
一种低空无人机多源融合定位方法,应用于系留无人机,硬件架构如图2所示,方法流程如图1所示,包括以下步骤:
步骤1,在卫星导航定位正常的情况下,手动操作无人机爬升到不同高度,不同位置;
步骤2,机载嵌入式计算平台启动采集图像程序,并将图像以ROS节点形式发布,地面计算机通过网线与机载嵌入式计算平台连接,实时接收图像信息,并进行SLAM自主定位,最后将定位结果以ROS节点形式发布。具体方式为:
步骤2.1,机载嵌入式计算平台启动相机采集程序,将图像以ROS节点形式发布;机载嵌入式计算平台可采用Nvidia NX;
步骤2.2,与机载嵌入式计算平台通过网线连接的地面计算机启动定位程序并订阅图像节点;
步骤2.3,对相机图像序列进行特征检测,得到特征点的位置信息和描述子信息;
步骤2.4,利用特征跟踪方法对图像中的特征点进行跟踪,得到同一特征点在不同图像中的坐标;
步骤2.5,通过多视图几何方法计算不同相机图像之间的位姿变换;
步骤2.6,使用Bundle Adjustment光束平差法对无人机位姿和三维点云坐标进行优化,得到位置为
Figure BDA0003301704280000041
将定位结果以ROS节点形式发布。
步骤3,地面计算机接收无人机以UPD组播形式发布的GPS和高度计信息,并将经纬度坐标转换为局部笛卡尔坐标,并以ROS节点形式发布。具体方式为:
步骤3.1,地面计算机UDP接收程序接收带有时间戳信息的经纬度坐标和高程信息;
步骤3.2,假设初始时刻的经纬度坐标为(x0,y0),高度为h0,t时刻的经纬度坐标为(xt,yt),高度为ht,以初始时刻位置为原点,建立笛卡尔坐标系(东北天坐标系),在新坐标系下,t时刻无人机的坐标为(Xt,Yt,Zt),地球半径为r,其中:
Xt=πr(xt-x0)/180
Yt=πr cos(x0π/180)(yt-y0)/180
Zt=ht-h0
步骤3.3,将步骤3.2中转换得到的坐标(Xt,Yt,Zt)以ROS节点形式发布。
步骤4,地面融合算法订阅步骤2.6和3.3中发布的SLAM位姿和卫导位姿,恢复SLAM尺度信息,并计算两个位姿之间的坐标转换矩阵。具体方式为:
步骤4.1,融合算法订阅SLAM程序发布的位置节点与卫导发布的位置节点,并根据时间戳信息进行同步化;
步骤4.2,恢复单目视觉SLAM尺度信息。选取多组不同时刻t1,t2,无人机在SLAM坐标系位置分别为
Figure BDA0003301704280000051
Figure BDA0003301704280000052
两个位置之间欧式距离为ds,在东北天坐标系中的位置分别为
Figure BDA0003301704280000053
Figure BDA0003301704280000054
距离为d,根据在无人机在两个不同位置(不同时刻)之间的距离计算得到SLAM的尺度信息为:
λ=d/ds
通过多组无人机在不同时刻不同位置的坐标求解尺度的均值。
步骤4.3,计算两个坐标系之间的坐标转换矩阵,令pt=(Xt,Yt,Zt),
Figure BDA0003301704280000055
两个坐标之间的转换关系为:
Figure BDA0003301704280000056
其中,R为两个坐标系之间的旋转矩阵(即位姿变换),c为平移向量,c和R的求解过程如下:
1)手动操作无人机飞到不同位置,由不同时刻的pt
Figure BDA0003301704280000057
生成三维点云,首先计算两个点云的中心点
Figure BDA0003301704280000058
Figure BDA0003301704280000059
然后将两个点云的坐标原点分别移动到点云中心:
Figure BDA00033017042800000510
Figure BDA00033017042800000511
2)联合
Figure BDA00033017042800000512
和上步可得
Figure BDA00033017042800000513
通过奇异值分解算法计算得到R。
3)最后计算得到平移向量
Figure BDA00033017042800000514
步骤5,利用转换矩阵将SLAM坐标转换为局部笛卡尔坐标,并与卫导得到的位姿进行信息融合,计算得到融合后的无人机位置。具体方式为:
步骤5.1,利用转换矩阵将SLAM坐标转换为局部笛卡尔坐标;
步骤5.2,为了验证单目视觉SLAM的精度,将SLAM转换后的笛卡尔坐标与卫导发布的数据进行比对,得到定位精度为1.86米。
总之,本发明方法针对低空无人机的飞行高度等特点,提出了基于单目视觉与卫导融合的多源定位方法,首先通过无人机的位置变化恢复了单目视觉SLAM的尺度,然后通过将经纬度坐标系转换为东北天坐标系解决了两个坐标系之间的转换问题,成功解决了低空无人机在拒止环境中的自主定位难题。
以上所述仅为本发明中的一个实施例,并不用于限制本发明。凡在本发明的精神与原则之内,所做的任何修改,改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种低空无人机多源融合定位方法,其特征在于,包括以下步骤:
(1)在卫星导航定位正常的情况下,手动操作无人机爬升到不同高度的多个不同位置;
(2)机载嵌入式平台启动图像采集程序,并将图像以ROS节点形式发布,地面计算机通过网络与机载嵌入式计算平台连接,实时订阅图像信息,进行SLAM自主定位,并将SLAM定位坐标以ROS节点形式发布;
(3)地面计算机同时接收无人机组播的GPS和高度计信息,将经纬度坐标转换为局部笛卡尔坐标,并以ROS节点形式发布;
(4)地面计算机的融合程序订阅步骤(2)和(3)中发布的坐标信息,恢复SLAM尺度信息,并计算SLAM定位坐标与局部笛卡尔坐标之间的转换矩阵;
(5)利用转换矩阵将步骤(2)发布的SLAM定位坐标转换为局部笛卡尔坐标,并与步骤(3)发布的局部笛卡尔坐标进行信息融合,计算得到融合后的无人机位置。
2.根据权利要求1所述的一种低空无人机多源融合定位方法,其特征在于,步骤(2)的具体方式为:
(201)启动相机,采集图像,将图像序列以ROS节点形式发布;
(202)地面计算机的定位程序订阅图像信息;
(203)地面计算机对图像序列进行特征检测,得到特征点的位置信息和描述子信息;
(204)利用特征跟踪方法对图像中的特征点进行跟踪,得到同一特征点在不同图像中的坐标;
(205)通过多视图几何方法计算不同图像之间的位姿变换;
(206)使用光束平差法对无人机位姿进行优化,得到无人机位置为
Figure FDA0003301704270000011
将该位置作为定位结果以ROS节点形式发布。
3.根据权利要求2所述的一种低空无人机多源融合定位方法,其特征在于,步骤(3)的具体方式为:
(301)地面计算机接收无人机组播的带有时间戳信息的经纬度坐标和高程信息;
(302)假设初始时刻的经纬度坐标为(x0,y0),高度为h0,t时刻的经纬度坐标为(xt,yt),高度为ht,以初始时刻位置为原点,建立笛卡尔坐标系,即东北天坐标系,在东北天坐标系下,t时刻无人机的坐标为(Xt,Yt,Zt),地球半径为r,其中:
Xt=πr(xt-x0)/180
Yt=πr cos(x0π/180)(yt-y0)/180
Zt=ht-h0
(303)将转换后的坐标(Xt,yt,Zt)以ROS节点形式发布。
4.根据权利要求3所述的一种低空无人机多源融合定位方法,其特征在于,步骤(4)的具体方式为:
(401)地面计算机的融合程序订阅步骤(2)和(3)中发布的坐标信息,并根据时间戳信息进行同步化;
(402)在不同时刻t1,t2,无人机在SLAM坐标系位置分别为
Figure FDA0003301704270000021
Figure FDA0003301704270000022
两个位置之间的欧式距离为ds,在东北天坐标系中的位置分别为
Figure FDA0003301704270000023
Figure FDA0003301704270000024
距离为d,根据在无人机在两个不同位置之间的距离计算得到SLAM的尺度信息为:
λ=d/ds
通过多组无人机在不同时刻不同位置的坐标求解尺度的均值;
(403)令
Figure FDA0003301704270000025
两个坐标之间的转换关系为:
Figure FDA0003301704270000026
其中,R为两个坐标系之间的旋转矩阵,c为平移向量;c和R的求解过程如下:
1)无人机在飞行过程中,由不同时刻的pt
Figure FDA0003301704270000027
生成三维点云,计算两个点云的中心占
Figure FDA0003301704270000028
Figure FDA0003301704270000029
然后将两个点云的坐标原点分别移动到点云中心,得到t时刻无人机的大地坐标qt和SLAM坐标qt s
Figure FDA00033017042700000210
Figure FDA00033017042700000211
2)联合
Figure FDA00033017042700000212
Figure FDA00033017042700000213
通过奇异值分解算法计算得到R;
3)计算平移向量
Figure FDA00033017042700000214
CN202111192432.3A 2021-10-13 2021-10-13 一种低空无人机多源融合定位方法 Active CN113920186B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111192432.3A CN113920186B (zh) 2021-10-13 2021-10-13 一种低空无人机多源融合定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111192432.3A CN113920186B (zh) 2021-10-13 2021-10-13 一种低空无人机多源融合定位方法

Publications (2)

Publication Number Publication Date
CN113920186A true CN113920186A (zh) 2022-01-11
CN113920186B CN113920186B (zh) 2022-12-27

Family

ID=79239931

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111192432.3A Active CN113920186B (zh) 2021-10-13 2021-10-13 一种低空无人机多源融合定位方法

Country Status (1)

Country Link
CN (1) CN113920186B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114063655A (zh) * 2022-01-17 2022-02-18 四川腾盾科技有限公司 无人机真实飞行轨迹的估算方法及装置、设备、存储介质
CN116817929A (zh) * 2023-08-28 2023-09-29 中国兵器装备集团兵器装备研究所 一种无人机对地平面多目标同时定位方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109029417A (zh) * 2018-05-21 2018-12-18 南京航空航天大学 基于混合视觉里程计和多尺度地图的无人机slam方法
CN110243358A (zh) * 2019-04-29 2019-09-17 武汉理工大学 多源融合的无人车室内外定位方法及系统
CN112347840A (zh) * 2020-08-25 2021-02-09 天津大学 视觉传感器激光雷达融合无人机定位与建图装置和方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109029417A (zh) * 2018-05-21 2018-12-18 南京航空航天大学 基于混合视觉里程计和多尺度地图的无人机slam方法
CN110243358A (zh) * 2019-04-29 2019-09-17 武汉理工大学 多源融合的无人车室内外定位方法及系统
CN112347840A (zh) * 2020-08-25 2021-02-09 天津大学 视觉传感器激光雷达融合无人机定位与建图装置和方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114063655A (zh) * 2022-01-17 2022-02-18 四川腾盾科技有限公司 无人机真实飞行轨迹的估算方法及装置、设备、存储介质
CN116817929A (zh) * 2023-08-28 2023-09-29 中国兵器装备集团兵器装备研究所 一种无人机对地平面多目标同时定位方法及系统
CN116817929B (zh) * 2023-08-28 2023-11-10 中国兵器装备集团兵器装备研究所 一种无人机对地平面多目标同时定位方法及系统

Also Published As

Publication number Publication date
CN113920186B (zh) 2022-12-27

Similar Documents

Publication Publication Date Title
CN109683629B (zh) 基于组合导航和计算机视觉的无人机电力架线系统
CN113920186B (zh) 一种低空无人机多源融合定位方法
CN109911188A (zh) 非卫星导航定位环境的桥梁检测无人机系统
CN110446159A (zh) 一种室内无人机精确定位与自主导航的系统及方法
CN109032153B (zh) 基于光电-惯性组合导引的无人机自主着舰方法和系统
CN106056075A (zh) 基于无人机的社区网格化中重点人员识别及跟踪系统
CN113625774B (zh) 局部地图匹配与端到端测距多无人机协同定位系统和方法
KR20190051703A (ko) 스테레오 드론 및 이를 이용하는 무기준점 토공량 산출 방법과 시스템
CN112394382B (zh) 一种抗长时遮挡的低慢小目标跟踪装置及方法
CN110687925A (zh) 一种无人机自主巡航导线及地线巡检检测装置和方法
CN113156998A (zh) 一种无人机飞控系统及控制方法
WO2022193106A1 (zh) 一种通过惯性测量参数将gps与激光雷达融合定位的方法
CN102190081A (zh) 基于视觉的飞艇定点鲁棒控制方法
CN104360362A (zh) 利用飞行器对观测目标进行定位的方法及系统
CN109883398A (zh) 基于无人机倾斜摄影的植株绿量提取的系统及方法
CN104729482A (zh) 一种基于飞艇的地面微小目标侦测系统及方法
CN114371725A (zh) 一种适合于风电机组自动化巡检的系统
CN115876197A (zh) 一种系留升空光电成像目标定位方法
CN204575069U (zh) 一种小型无人机机载三维激光测量装置
CN113063401A (zh) 一种无人机航测系统
CN107607933B (zh) 一种基于俯仰角迭代的远程无人机高精度定位方法
CN112747745A (zh) 一种目标特性参数测量装置及方法
CN113436276B (zh) 基于视觉相对定位的多无人机编队方法
CN113514052A (zh) 一种多机协同高精度有源目标定位方法及系统
CN113074715A (zh) 无人机高精度目标定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant