CN110850897A - 面向深度神经网络的小型无人机位姿数据采集方法 - Google Patents

面向深度神经网络的小型无人机位姿数据采集方法 Download PDF

Info

Publication number
CN110850897A
CN110850897A CN201911146243.5A CN201911146243A CN110850897A CN 110850897 A CN110850897 A CN 110850897A CN 201911146243 A CN201911146243 A CN 201911146243A CN 110850897 A CN110850897 A CN 110850897A
Authority
CN
China
Prior art keywords
degrees
distance
long
machine
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911146243.5A
Other languages
English (en)
Other versions
CN110850897B (zh
Inventor
赵搏欣
赵晓林
冯国强
张鹏
王雄伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Air Force Engineering University of PLA
Original Assignee
Air Force Engineering University of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Air Force Engineering University of PLA filed Critical Air Force Engineering University of PLA
Priority to CN201911146243.5A priority Critical patent/CN110850897B/zh
Publication of CN110850897A publication Critical patent/CN110850897A/zh
Application granted granted Critical
Publication of CN110850897B publication Critical patent/CN110850897B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Image Analysis (AREA)

Abstract

针对小型无人机双机编队过程中的相对定位问题,设计一种基于AprilTag标记物的位姿数据采集方法,该方法采集得到的数据经过YOLOv3训练后,训练得到的神经网络可以直接输入图像便能够识别图像中的长机、长机的姿态和距离信息;其步骤为:(1)基于AprilTag检测算法采集长机位姿样本;AprilTag检测算法可以输出双机之间距离和姿态角信息,然后采集不同背景、不同姿态角、距离上的长机图像;(2)标注采集得到的样本图像后利用YOLOv3进行训练,并将训练好的神经网络在真实场景下测试,评估算法的精度;(3)位姿估计改善;针对距离估计不准的问题,设计改善方法,提高位姿估计精度;本发明具有原理简单、适用性好、精度较高且稳定可靠等优点。

Description

面向深度神经网络的小型无人机位姿数据采集方法
技术领域
本发明主要涉及无人机的编队导航领域,具体涉及一种基于端到端的面向深度神经网络的小型无人机位姿估计方法。
背景技术
无人机协同作业可以弥补单架无人机执行任务时无法克服的不足,提高任务执行效率,具有无法比拟的优势和广阔的发展前景。无人机要实现编队飞行,不可避免的要进行队形的保持和变化,这就涉及到无人机相对定位的问题。所谓相对定位,即在编队飞行的过程中,每个成员必须了解其相对友机的位置、速度和姿态等空间状态信息,以保证整个编队安全且稳定的飞行。
目前小型无人机普遍使用的GPS模块定位精度约为10米,且存在位置漂移问题,很难满足多机协同飞行的相对定位精度要求。此外,还需要考虑导航系统的战时可行性,GPS定位导航系统可能在战时受到严重的干扰而不能正常使用。因此仅在外部导航定位系统有限的支持下,利用自身搭载的传感设备,感知机体间的相对距离、相对角度等信息,确定各编队成员间的相对位置关系就显得尤为重要。
考虑到小型无人机载荷能力有限,本发明仅使用摄像头传感器,借鉴深度神经网络学习的方法,学习摄像头采集到的无人机图像信息,输出本机相对友机的位置和姿态信息。
发明内容
本发明主要针对双机(后机跟前机)编队飞行过程中的相对定位问题,提出一种面向深度神经网络的小型无人机位姿数据采集方法,包括下列步骤:
第一步:排除AprilTag标记物对目标识别的影响
为了确保贴上AprilTag标记物后不干扰对目标的识别,打印AprilTag标记物,将其正直贴在长机机身上;后机装有USB前视摄像头,用后机摄像头从各个角度、各个背景下拍摄贴有AprilTag标记物长机的图像M幅,用电脑标注后导入YOLOv3进行训练;用训练好的神经网络对未贴AprilTag标记物的长机进行检测;若可以检测到,则说明图像“AprilTag标记物”不影响识别算法;
第二步:基于AprilTag检测算法采集长机位姿样本
(1)设计偏航角
以旋翼无人机机头飞行方向为正方向,顺时针偏离正方向的角度为正,逆时针偏离正方向的角度为负;每隔30°化为一类,共划分为5类,分为0°、+30°、+60°、-30°、-60°;为确保偏航角度的准确度,用后机前置摄像头对长机的标记物进行检测,采用AprilTag标记物检测算法输出长机相对后机的偏航角信息;
(2)设计距离
设置后机与长机之间的距离,以长度A为最小单元,A≥0.5m,将距离划分为A、2A、3A一共3个类别;为了确保采集距离信息的准确,采用AprilTag标记物检测算法进行距离测量;
(3)位姿数据采样
用后机的USB前置摄像头采集长机在设定距离下的不同偏航角图像;长机在距离后机A的距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像,然后再将长机放到2A距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像,最后将长机放到3A距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像;
(4)样本数据多样化
用后机的前置摄像头拍摄不同场景作为背景图像,该背景图像包括多种环境,然后将之前拍摄到的不同位姿的长机图像抠图出来,贴到各种环境下的背景图像中,每种类别各制作N幅图像,对图像中的无人机、姿态、距离进行标注;
(5)样本标注
将背景多样化后的图像,在LabelImg软件中用矩形框标出图像中的长机,然后根据长机拍摄时的距离和角度,标注类型为“UAV/距离/偏航角”;
第三步:基于YOLOv3的训练与测试
对第二步标注好的图像输入YOLOv3神经网络进行训练,然后将训练好的神经网络在真实环境中对长机进行实时检测,将检测到长机在图像中的坐标、距离USB摄像头的距离和偏离规定航向的角度,以“UAV/距离/偏航角”的格式输出,作为下一步跟踪控制的输入数据;
第四步:位姿估计改善
设计一个位姿优化方法;假设无人机实际尺寸为D,D不包括螺旋桨的长度,假设旋翼无人机长度、宽度一致,USB摄像头焦距为f,YOLOv3输出的识别框长度为d,阈值ε=0.5。主要步骤如下:
(1)计算出相邻两帧图像的YOLOv3输出的双机间距离平均值z0。例如:当前帧图像YOLOv3算法输出的双机间距离为z,上一帧图像YOLOv3算法输出的双机间距离为zp,则有:
(2)根据下式估计实际双机距离的理论值
Figure BSA0000195435050000032
Figure BSA0000195435050000033
(3)若则将当前YOLOv3的当前输出值z加0.5m,若
Figure BSA0000195435050000035
则将当前YOLOv3的当前输出值z减0.5m,若则以YOLOv3的当前输出值z为准。
在本发明的一个具体实施例中,M=2000。
在本发明的另一个具体实施例中,A=0.5米。
在本发明的又一个具体实施例中,N=300。
在本发明的再一个具体实施例中,阈值ε=0.5。
现有技术主要依靠目标识别-位姿估计-跟随控制的思路来进行编队飞行控制。与现有技术相比,本发明的优点在于:通过引入YOLOv3和AprilTag方法,将前两个步骤(目标识别-位姿估计)合二为一,使得神经网络除了能够对图像中的目标信息进行识别外,还可以输出相对位置和姿态信息,省去了位姿估计的计算过程。经过验证,该方法有效可行,且精度能够达到0.5米以内。能够很好的服务于双机编队飞行控制。
附图说明
图1是相对位姿估计模型原理图;
图2示出实验AprilTag标志物;
图3是部分含姿态标识的无人机样本;
图4是算法验证结果图。
具体实施方式
如图1所示,在编队飞行过程中,无人机根据前置摄像头获取的图像计算自身与长机之间的距离和偏航角信息,以调节自身姿态实现稳定跟随。本发明在YOLOv3算法(RedmonJ.Farhadi A.YOLOv3.An Incremental Improvement.2018)的基础上,提出一种新的数据采集方法,该方法借助AprilTag(一种特定的标志,参见官网https:// april.eecs.umich.edu/software/apriltag.html)及其检测算法,采集复杂背景下长机在特定位置和姿态下的图像,作为YOLOv3深度学习算法的输入数据。然后,利用YOLOv3进行训练,训练得到的神经网络除了可以识别图像中的无人机之外,还可以输出摄像头相对于无人机的位置和姿态信息,结果可以直接用于后期的双机编队飞行控制。
为了进一步说明本发明,以下内容将分布阐述训练数据的采集过程,即本发明的保护内容。训练数据采集完成并标注后基于YOLOv3进行训练,这一部分算法已公开发表(Redmon J.Farhadi A.YOLOv3.An Incremental Improvement.2018),YOLOv3的配置和训练环境搭建参见博客:https://blog.csdn.net/weixin 44971445/article/details/ 95053566
第一步:排除AprilTag对目标识别的影响
为了确保贴上AprilTag后不干扰对目标的识别,打印如图2所示的AprilTag标记物(标记物尺寸适中,以保证后机的前置摄像头能够检测到,在实验中采用的是大疆精灵3Phantom,标记物尺寸为3cm×3cm),并将其正直贴在长机机身上。后机装有USB前视摄像头,用后机摄像头从各个角度、各个背景下拍摄贴有AprilTag长机的图像2000幅,用电脑标注后导入YOLOv3进行训练(YOLOv3的算法参考Redmon J.Farhadi A.YOLOv3.AnIncremental Improvement.2018),标注及训练方式可参见博客https://blog.csdn.net/ weixin 44971445/article/details/95053566)。最后,用训练好的神经网络对未贴AprilTag标记物的长机进行检测。若可以检测到,则说明图像“AprilTag标记物”不影响识别算法。
通过多次实验结果表明,采集贴标记物的无人机样本训练生成的神经网络,可以识别和检测到未贴标记物的无人机,且识别率达98%。
第二步:基于AprilTag标记物估计算法采集长机位姿样本
(1)设计偏航角
以旋翼无人机机头飞行方向(自定义)为正方向,顺时针偏离正方向的角度为正,逆时针偏离正方向的角度为负。每隔30°化为一类,共划分为5类,分为0°、+30°、+60°、-30°、-60°。为确保偏航角度的准确度,用后机前置摄像头对长机的标记物进行检测,AprilTag检测算法参见文献(Olson E.AprilTag:A robust and flexible visual fiducialsystem,2011),算法可直接输出长机相对后机的偏航角信息。
(2)设计距离
设置后机与长机之间的距离,以0.5米为最小单元,将距离划分为0.5米、1.0米、1.5米3个类别。为了确保采集距离信息的准确,采用AprilTag标记物检测算法(OlsonE.AprilTag:A robust and flexible visual fiducial system,2011)进行距离测量。
(3)位姿数据采样
用后机的USB前置摄像头采集长机在设定距离下的不同偏航角图像。例如:长机在距离后机0.5米的距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像,然后再将长机放到1.0米的距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像,最后将长机放到1.5米的距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像。
(4)样本数据多样化
用后机的前置摄像头拍摄不同场景作为背景图像(包括操场、树林、室内、停车场等各种环境),然后将之前拍摄到的不同位姿的长机图像抠图出来,贴到各种环境下的背景图像中,每种类别各制作300幅图像,例如0.5米/0°的长机位置在不同背景下的图像共计300幅,对图像中的无人机、姿态、距离进行标注,如图3所例示。
(5)样本标注
将背景多样化后的图像,在LabelImg软件中用矩形框圈出图像中的长机,然后根据长机拍摄时的距离和角度,标注类型为“UAV/距离/偏航角”。
第三步:基于YOLOv3的训练与测试
将第二步标注好的图像输入YOLOv3神经网络进行训练(Redmon J.FarhadiA.YOLOv3.An Incremental Improvement.2018),然后将训练好的神经网络在真实环境中对长机进行实时检测,将检测到长机在图像中的坐标(识别矩形框的中心)、距离USB摄像头的距离和偏离规定航向的角度,以“UAV/距离/偏航角”的格式输出,例如:UAV/0.5/+30,表示前方检测到长机(无人机),距离为0.5米,长机偏航角为+30°,以作为下一步跟踪控制的输入数据。
第四步:位姿估计改善
由于在位姿样本采集过程中对距离的划分非常粗略,是以0.5m为单位,为了降低采样精度对最终距离测量的影响,依据相机模型,设计一个位姿优化方法。假设无人机实际尺寸为D(不包括螺旋桨的长度,假设旋翼无人机长度、宽度一致),USB摄像头焦距为f,YOLOv3输出的识别框长度为d,阈值ε=0.5。主要步骤如下:
(1)计算出相邻两帧图像的YOLOv3输出的双机间距离平均值z0。例如:当前帧图像YOLOv3算法输出的双机间距离为z,上一帧图像YOLOv3算法输出的双机间距离为zp,则有:
Figure BSA0000195435050000061
(2)根据下式估计实际双机距离的理论值
Figure BSA0000195435050000063
(3)若则将当前YOLOv3的当前输出值z加0.5m,若则将当前YOLOv3的当前输出值z减0.5m,若
Figure BSA0000195435050000073
则以YOLOv3的当前输出值z为准。
测试结果如图4所示,测试结果显示,算法可以达到每秒15帧的实时处理效果,无人机识别准确度为98%以上,位姿估计——角度精度为30°、距离为0.5m,算法验证有效可行,能够识别室内外不同环境下的小型旋翼无人机的位置和姿态,为进一步实现小型无人机的自主编队飞行提供了感知基础。

Claims (5)

1.一种面向深度神经网络的小型无人机位姿数据采集方法,其特征在于,包括下列步骤:
第一步:排除AprilTag标记物对目标识别的影响
为了确保贴上AprilTag标记物后不干扰对目标的识别,打印AprilTag标记物,将其正直贴在长机机身上;后机装有USB前视摄像头,用后机摄像头从各个角度、各个背景下拍摄贴有AprilTag标记物长机的图像M幅,用电脑标注后导入YOLOv3进行训练;用训练好的神经网络对未贴AprilTag标记物的长机进行检测;若可以检测到,则说明图像“AprilTag标记物”不影响识别算法;
第二步:基于AprilTag检测算法采集长机位姿样本
(1)设计偏航角
以旋翼无人机机头飞行方向为正方向,顺时针偏离正方向的角度为正,逆时针偏离正方向的角度为负;每隔30°化为一类,共划分为5类,分为0°、+30°、+60°、-30°、-60°;为确保偏航角度的准确度,用后机前置摄像头对长机的标记物进行检测,采用AprilTag标记物检测算法输出长机相对后机的偏航角信息;
(2)设计距离
设置后机与长机之间的距离,以长度A为最小单元,A≥0.5m,将距离划分为A、2A、3A一共3个类别;为了确保采集距离信息的准确,采用AprilTag标记物检测算法进行距离测量;
(3)位姿数据采样
用后机的USB前置摄像头采集长机在设定距离下的不同偏航角图像;长机在距离后机A的距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像,然后再将长机放到2A距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像,最后将长机放到3A距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像;
(4)样本数据多样化
用后机的前置摄像头拍摄不同场景作为背景图像,该背景图像包括多种环境,然后将之前拍摄到的不同位姿的长机图像抠图出来,贴到各种环境下的背景图像中,每种类别各制作N幅图像,对图像中的无人机、姿态、距离进行标注;
(5)样本标注
将背景多样化后的图像,在LabelImg软件中用矩形框标出图像中的长机,然后根据长机拍摄时的距离和角度,标注类型为“UAV/距离/偏航角”;
第三步:基于YOLOv3的训练与测试
对第二步标注好的图像输入YOLOv3神经网络进行训练,然后将训练好的神经网络在真实环境中对长机进行实时检测,将检测到长机在图像中的坐标、距离USB摄像头的距离和偏离规定航向的角度,以“UAV/距离/偏航角”的格式输出,作为下一步跟踪控制的输入数据;
第四步:位姿估计改善
设计一个位姿优化方法;假设无人机实际尺寸为D,D不包括螺旋桨的长度,假设旋翼无人机长度、宽度一致,USB摄像头焦距为f,YOLOv3输出的识别框长度为d,阈值ε=0.5;主要步骤如下:
(1)计算出相邻两帧图像的YOLOv3输出的双机间距离平均值z0;例如:当前帧图像YOLOv3算法输出的双机间距离为z,上一帧图像YOLOv3算法输出的双机间距离为zp,则有:
Figure FSA0000195435040000021
(2)根据下式估计实际双机距离的理论值
(3)若
Figure FSA0000195435040000024
则将当前YOLOv3的当前输出值z加0.5m,若
Figure FSA0000195435040000025
则将当前YOLOv3的当前输出值z减0.5m,若
Figure FSA0000195435040000026
则以YOLOv3的当前输出值z为准。
2.如权利要求1所述的小型无人机位姿数据采集方法,其特征在于,M=2000。
3.如权利要求1所述的小型无人机位姿数据采集方法,其特征在于,A=0.5米。
4.如权利要求1所述的小型无人机位姿数据采集方法,其特征在于,N=300。
5.如权利要求1所述的小型无人机位姿数据采集方法,其特征在于,阈值ε=0.5。
CN201911146243.5A 2019-11-13 2019-11-13 面向深度神经网络的小型无人机位姿数据采集方法 Active CN110850897B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911146243.5A CN110850897B (zh) 2019-11-13 2019-11-13 面向深度神经网络的小型无人机位姿数据采集方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911146243.5A CN110850897B (zh) 2019-11-13 2019-11-13 面向深度神经网络的小型无人机位姿数据采集方法

Publications (2)

Publication Number Publication Date
CN110850897A true CN110850897A (zh) 2020-02-28
CN110850897B CN110850897B (zh) 2023-06-13

Family

ID=69603213

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911146243.5A Active CN110850897B (zh) 2019-11-13 2019-11-13 面向深度神经网络的小型无人机位姿数据采集方法

Country Status (1)

Country Link
CN (1) CN110850897B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111176335A (zh) * 2020-04-07 2020-05-19 成都纵横自动化技术股份有限公司 编队飞行导引方法及相关装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255286A (zh) * 2018-07-21 2019-01-22 哈尔滨工业大学 一种基于yolo深度学习网络框架的无人机光学快速检测识别方法
US20190025858A1 (en) * 2016-10-09 2019-01-24 Airspace Systems, Inc. Flight control using computer vision
CN109934108A (zh) * 2019-01-31 2019-06-25 华南师范大学 一种多目标多种类的车辆检测和测距系统及实现方法
CN110132060A (zh) * 2019-04-26 2019-08-16 南京理工大学 一种基于视觉导航的拦截无人机的方法
CN110347035A (zh) * 2018-04-08 2019-10-18 北京京东尚科信息技术有限公司 自主跟踪方法及装置、电子设备、存储介质
GB201913111D0 (en) * 2019-09-11 2019-10-23 Canon Kk A method, apparatus and computer program for aquiring a training set of images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190025858A1 (en) * 2016-10-09 2019-01-24 Airspace Systems, Inc. Flight control using computer vision
CN110347035A (zh) * 2018-04-08 2019-10-18 北京京东尚科信息技术有限公司 自主跟踪方法及装置、电子设备、存储介质
CN109255286A (zh) * 2018-07-21 2019-01-22 哈尔滨工业大学 一种基于yolo深度学习网络框架的无人机光学快速检测识别方法
CN109934108A (zh) * 2019-01-31 2019-06-25 华南师范大学 一种多目标多种类的车辆检测和测距系统及实现方法
CN110132060A (zh) * 2019-04-26 2019-08-16 南京理工大学 一种基于视觉导航的拦截无人机的方法
GB201913111D0 (en) * 2019-09-11 2019-10-23 Canon Kk A method, apparatus and computer program for aquiring a training set of images

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HAOYU DUAN: "Image Digital Zoom Based Single Target Apriltag Recognition Algorithm in Large Scale Changes on the Distance", 《THE 1ST INTERNATIONAL CONFERENCE ON INDUSTRIAL ARTIFICIAL INTELLIGENCE》 *
宋鸿涌: "基于深度学习的四轴无人飞行器自主跟踪问题研究", 《中国优秀硕博士论文全文数据库》 *
梅妍玭: "基于OpenMV的3D定位识别系统", 《新技术新工艺》 *
赵搏欣: "Exploring the most appropriate feature detector and descriptor algorithm for on-board UAV image processing", 《PROCEEDING OF THE 2015 IEEE INTERNATIONAL CONFERENCE ON INFORMATION AND AUTOMATION》 *
赵搏欣: "基于合作二维码的旋翼无人机室内定位研究", 《第28届中国控制与决策会议》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111176335A (zh) * 2020-04-07 2020-05-19 成都纵横自动化技术股份有限公司 编队飞行导引方法及相关装置
CN111176335B (zh) * 2020-04-07 2020-08-14 成都纵横自动化技术股份有限公司 编队飞行导引方法及相关装置

Also Published As

Publication number Publication date
CN110850897B (zh) 2023-06-13

Similar Documents

Publication Publication Date Title
Khattak et al. Keyframe-based direct thermal–inertial odometry
CN112734852B (zh) 一种机器人建图方法、装置及计算设备
CN104062973B (zh) 一种基于图像标志物识别的移动机器人slam方法
CN112598757B (zh) 一种多传感器时间空间标定方法及装置
CN107741234A (zh) 一种基于视觉的离线地图构建及定位方法
CN111258313A (zh) 多传感器融合slam系统及机器人
CN110047142A (zh) 无人机三维地图构建方法、装置、计算机设备及存储介质
JP6943988B2 (ja) 移動可能物体の制御方法、機器およびシステム
CN105955308A (zh) 一种飞行器的控制方法和装置
CN110470333B (zh) 传感器参数的标定方法及装置、存储介质和电子装置
CN102298070A (zh) 估算无人机,尤其是能够在自动驾驶下执行悬停飞行的无人机的水平速度的方法
CN109857144A (zh) 无人机、无人机控制系统及控制方法
CN114415736B (zh) 一种无人机多阶段视觉精准降落方法和装置
CN109214254B (zh) 一种确定机器人位移的方法及装置
CN108426576A (zh) 基于标识点视觉导航与sins的飞行器路径规划方法及系统
CN106296708B (zh) 车辆追踪方法和装置
Zheng et al. Robust and accurate monocular visual navigation combining IMU for a quadrotor
CN113643380A (zh) 一种基于单目相机视觉标靶定位的机械臂引导方法
Deng et al. Visual–inertial estimation of velocity for multicopters based on vision motion constraint
CN112700498A (zh) 一种基于深度学习的风力发电机叶尖定位方法及系统
CN108225273A (zh) 一种基于传感器先验知识的实时跑道检测方法
CN110850897B (zh) 面向深度神经网络的小型无人机位姿数据采集方法
CN104182747A (zh) 基于多个立体相机的对象检测跟踪方法及装置
CN114777768A (zh) 一种卫星拒止环境高精度定位方法、系统及电子设备
CN116486290B (zh) 一种无人机监测追踪方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant