CN110850897B - 面向深度神经网络的小型无人机位姿数据采集方法 - Google Patents
面向深度神经网络的小型无人机位姿数据采集方法 Download PDFInfo
- Publication number
- CN110850897B CN110850897B CN201911146243.5A CN201911146243A CN110850897B CN 110850897 B CN110850897 B CN 110850897B CN 201911146243 A CN201911146243 A CN 201911146243A CN 110850897 B CN110850897 B CN 110850897B
- Authority
- CN
- China
- Prior art keywords
- machine
- distance
- images
- long
- yolov3
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000001537 neural effect Effects 0.000 title description 2
- 239000003550 marker Substances 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 claims abstract description 18
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 238000012360 testing method Methods 0.000 claims abstract description 6
- 230000036544 posture Effects 0.000 claims description 8
- 238000013461 design Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 2
- 230000015572 biosynthetic process Effects 0.000 abstract description 13
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Image Analysis (AREA)
Abstract
针对小型无人机双机编队过程中的相对定位问题,设计一种基于AprilTag标记物的位姿数据采集方法,该方法采集得到的数据经过YOLOv3训练后,训练得到的神经网络可以直接输入图像便能够识别图像中的长机、长机的姿态和距离信息;其步骤为:(1)基于AprilTag检测算法采集长机位姿样本;AprilTag检测算法可以输出双机之间距离和姿态角信息,然后采集不同背景、不同姿态角、距离上的长机图像;(2)标注采集得到的样本图像后利用YOLOv3进行训练,并将训练好的神经网络在真实场景下测试,评估算法的精度;(3)位姿估计改善;针对距离估计不准的问题,设计改善方法,提高位姿估计精度;本发明具有原理简单、适用性好、精度较高且稳定可靠等优点。
Description
技术领域
本发明主要涉及无人机的编队导航领域,具体涉及一种基于端到端的面向深度神经网络的小型无人机位姿估计方法。
背景技术
无人机协同作业可以弥补单架无人机执行任务时无法克服的不足,提高任务执行效率,具有无法比拟的优势和广阔的发展前景。无人机要实现编队飞行,不可避免的要进行队形的保持和变化,这就涉及到无人机相对定位的问题。所谓相对定位,即在编队飞行的过程中,每个成员必须了解其相对友机的位置、速度和姿态等空间状态信息,以保证整个编队安全且稳定的飞行。
目前小型无人机普遍使用的GPS模块定位精度约为10米,且存在位置漂移问题,很难满足多机协同飞行的相对定位精度要求。此外,还需要考虑导航系统的战时可行性,GPS定位导航系统可能在战时受到严重的干扰而不能正常使用。因此仅在外部导航定位系统有限的支持下,利用自身搭载的传感设备,感知机体间的相对距离、相对角度等信息,确定各编队成员间的相对位置关系就显得尤为重要。
考虑到小型无人机载荷能力有限,本发明仅使用摄像头传感器,借鉴深度神经网络学习的方法,学习摄像头采集到的无人机图像信息,输出本机相对友机的位置和姿态信息。
发明内容
本发明主要针对双机(后机跟前机)编队飞行过程中的相对定位问题,提出一种面向深度神经网络的小型无人机位姿数据采集方法,包括下列步骤:
第一步:排除AprilTag标记物对目标识别的影响
为了确保贴上AprilTag标记物后不干扰对目标的识别,打印AprilTag标记物,将其正直贴在长机机身上;后机装有USB前视摄像头,用后机摄像头从各个角度、各个背景下拍摄贴有AprilTag标记物长机的图像M幅,用电脑标注后导入YOLOv3进行训练;用训练好的神经网络对未贴AprilTag标记物的长机进行检测;若可以检测到,则说明图像“AprilTag标记物”不影响识别算法;
第二步:基于AprilTag检测算法采集长机位姿样本
(1)设计偏航角
以旋翼无人机机头飞行方向为正方向,顺时针偏离正方向的角度为正,逆时针偏离正方向的角度为负;每隔30°化为一类,共划分为5类,分为0°、+30°、+60°、-30°、-60°;为确保偏航角度的准确度,用后机前置摄像头对长机的标记物进行检测,采用AprilTag标记物检测算法输出长机相对后机的偏航角信息;
(2)设计距离
设置后机与长机之间的距离,以长度A为最小单元,A≥0.5m,将距离划分为A、2A、3A一共3个类别;为了确保采集距离信息的准确,采用AprilTag标记物检测算法进行距离测量;
(3)位姿数据采样
用后机的USB前置摄像头采集长机在设定距离下的不同偏航角图像;长机在距离后机A的距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像,然后再将长机放到2A距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像,最后将长机放到3A距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像;
(4)样本数据多样化
用后机的前置摄像头拍摄不同场景作为背景图像,该背景图像包括多种环境,然后将之前拍摄到的不同位姿的长机图像抠图出来,贴到各种环境下的背景图像中,每种类别各制作N幅图像,对图像中的无人机、姿态、距离进行标注;
(5)样本标注
将背景多样化后的图像,在LabelImg软件中用矩形框标出图像中的长机,然后根据长机拍摄时的距离和角度,标注类型为“UAV/距离/偏航角”;
第三步:基于YOLOv3的训练与测试
对第二步标注好的图像输入YOLOv3神经网络进行训练,然后将训练好的神经网络在真实环境中对长机进行实时检测,将检测到长机在图像中的坐标、距离USB摄像头的距离和偏离规定航向的角度,以“UAV/距离/偏航角”的格式输出,作为下一步跟踪控制的输入数据;
第四步:位姿估计改善
设计一个位姿优化方法;假设无人机实际尺寸为D,D不包括螺旋桨的长度,假设旋翼无人机长度、宽度一致,USB摄像头焦距为f,YOLOv3输出的识别框长度为d,阈值ε=0.5。主要步骤如下:
(1)计算出相邻两帧图像的YOLOv3输出的双机间距离平均值z0。例如:当前帧图像YOLOv3算法输出的双机间距离为z,上一帧图像YOLOv3算法输出的双机间距离为zp,则有:
在本发明的一个具体实施例中,M=2000。
在本发明的另一个具体实施例中,A=0.5米。
在本发明的又一个具体实施例中,N=300。
在本发明的再一个具体实施例中,阈值ε=0.5。
现有技术主要依靠目标识别-位姿估计-跟随控制的思路来进行编队飞行控制。与现有技术相比,本发明的优点在于:通过引入YOLOv3和AprilTag方法,将前两个步骤(目标识别-位姿估计)合二为一,使得神经网络除了能够对图像中的目标信息进行识别外,还可以输出相对位置和姿态信息,省去了位姿估计的计算过程。经过验证,该方法有效可行,且精度能够达到0.5米以内。能够很好的服务于双机编队飞行控制。
附图说明
图1是相对位姿估计模型原理图;
图2示出实验AprilTag标志物;
图3是部分含姿态标识的无人机样本;
图4是算法验证结果图。
具体实施方式
如图1所示,在编队飞行过程中,无人机根据前置摄像头获取的图像计算自身与长机之间的距离和偏航角信息,以调节自身姿态实现稳定跟随。本发明在YOLOv3算法(RedmonJ.Farhadi A.YOLOv3.An Incremental Improvement.2018)的基础上,提出一种新的数据采集方法,该方法借助AprilTag(一种特定的标志,参见官网https:// april.eecs.umich.edu/software/apriltag.html)及其检测算法,采集复杂背景下长机在特定位置和姿态下的图像,作为YOLOv3深度学习算法的输入数据。然后,利用YOLOv3进行训练,训练得到的神经网络除了可以识别图像中的无人机之外,还可以输出摄像头相对于无人机的位置和姿态信息,结果可以直接用于后期的双机编队飞行控制。
为了进一步说明本发明,以下内容将分布阐述训练数据的采集过程,即本发明的保护内容。训练数据采集完成并标注后基于YOLOv3进行训练,这一部分算法已公开发表(Redmon J.Farhadi A.YOLOv3.An Incremental Improvement.2018),YOLOv3的配置和训练环境搭建参见博客:https://blog.csdn.net/weixin 44971445/article/details/ 95053566。
第一步:排除AprilTag对目标识别的影响
为了确保贴上AprilTag后不干扰对目标的识别,打印如图2所示的AprilTag标记物(标记物尺寸适中,以保证后机的前置摄像头能够检测到,在实验中采用的是大疆精灵3Phantom,标记物尺寸为3cm×3cm),并将其正直贴在长机机身上。后机装有USB前视摄像头,用后机摄像头从各个角度、各个背景下拍摄贴有AprilTag长机的图像2000幅,用电脑标注后导入YOLOv3进行训练(YOLOv3的算法参考Redmon J.Farhadi A.YOLOv3.AnIncremental Improvement.2018),标注及训练方式可参见博客https://blog.csdn.net/ weixin 44971445/article/details/95053566)。最后,用训练好的神经网络对未贴AprilTag标记物的长机进行检测。若可以检测到,则说明图像“AprilTag标记物”不影响识别算法。
通过多次实验结果表明,采集贴标记物的无人机样本训练生成的神经网络,可以识别和检测到未贴标记物的无人机,且识别率达98%。
第二步:基于AprilTag标记物估计算法采集长机位姿样本
(1)设计偏航角
以旋翼无人机机头飞行方向(自定义)为正方向,顺时针偏离正方向的角度为正,逆时针偏离正方向的角度为负。每隔30°化为一类,共划分为5类,分为0°、+30°、+60°、-30°、-60°。为确保偏航角度的准确度,用后机前置摄像头对长机的标记物进行检测,AprilTag检测算法参见文献(Olson E.AprilTag:A robust and flexible visual fiducialsystem,2011),算法可直接输出长机相对后机的偏航角信息。
(2)设计距离
设置后机与长机之间的距离,以0.5米为最小单元,将距离划分为0.5米、1.0米、1.5米3个类别。为了确保采集距离信息的准确,采用AprilTag标记物检测算法(OlsonE.AprilTag:A robust and flexible visual fiducial system,2011)进行距离测量。
(3)位姿数据采样
用后机的USB前置摄像头采集长机在设定距离下的不同偏航角图像。例如:长机在距离后机0.5米的距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像,然后再将长机放到1.0米的距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像,最后将长机放到1.5米的距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像。
(4)样本数据多样化
用后机的前置摄像头拍摄不同场景作为背景图像(包括操场、树林、室内、停车场等各种环境),然后将之前拍摄到的不同位姿的长机图像抠图出来,贴到各种环境下的背景图像中,每种类别各制作300幅图像,例如0.5米/0°的长机位置在不同背景下的图像共计300幅,对图像中的无人机、姿态、距离进行标注,如图3所例示。
(5)样本标注
将背景多样化后的图像,在LabelImg软件中用矩形框圈出图像中的长机,然后根据长机拍摄时的距离和角度,标注类型为“UAV/距离/偏航角”。
第三步:基于YOLOv3的训练与测试
将第二步标注好的图像输入YOLOv3神经网络进行训练(Redmon J.FarhadiA.YOLOv3.An Incremental Improvement.2018),然后将训练好的神经网络在真实环境中对长机进行实时检测,将检测到长机在图像中的坐标(识别矩形框的中心)、距离USB摄像头的距离和偏离规定航向的角度,以“UAV/距离/偏航角”的格式输出,例如:UAV/0.5/+30,表示前方检测到长机(无人机),距离为0.5米,长机偏航角为+30°,以作为下一步跟踪控制的输入数据。
第四步:位姿估计改善
由于在位姿样本采集过程中对距离的划分非常粗略,是以0.5m为单位,为了降低采样精度对最终距离测量的影响,依据相机模型,设计一个位姿优化方法。假设无人机实际尺寸为D(不包括螺旋桨的长度,假设旋翼无人机长度、宽度一致),USB摄像头焦距为f,YOLOv3输出的识别框长度为d,阈值ε=0.5。主要步骤如下:
(1)计算出相邻两帧图像的YOLOv3输出的双机间距离平均值z0。例如:当前帧图像YOLOv3算法输出的双机间距离为z,上一帧图像YOLOv3算法输出的双机间距离为zp,则有:
测试结果如图4所示,测试结果显示,算法可以达到每秒15帧的实时处理效果,无人机识别准确度为98%以上,位姿估计——角度精度为30°、距离为0.5m,算法验证有效可行,能够识别室内外不同环境下的小型旋翼无人机的位置和姿态,为进一步实现小型无人机的自主编队飞行提供了感知基础。
Claims (4)
1.一种面向深度神经网络的小型无人机位姿数据采集方法,其特征在于,包括下列步骤:
第一步:排除AprilTag标记物对目标识别的影响
为了确保贴上AprilTag标记物后不干扰对目标的识别,打印AprilTag标记物,将其正直贴在长机机身上;后机装有USB前视摄像头,用后机摄像头从各个角度、各个背景下拍摄贴有AprilTag标记物长机的图像M幅,用电脑标注后导入YOLOv3进行训练;用训练好的神经网络对未贴AprilTag标记物的长机进行检测;若可以检测到,则说明图像“AprilTag标记物”不影响识别算法;
第二步:基于AprilTag检测算法采集长机位姿样本
(1)设计偏航角
以旋翼无人机机头飞行方向为正方向,顺时针偏离正方向的角度为正,逆时针偏离正方向的角度为负;每隔30°化为一类,共划分为5类,分为0°、+30°、+60°、-30°、-60°;为确保偏航角度的准确度,用后机前置摄像头对长机的标记物进行检测,采用AprilTag标记物检测算法输出长机相对后机的偏航角信息;
(2)设计距离
设置后机与长机之间的距离,以长度A为最小单元,A≥0.5m,将距离划分为A、2A、3A一共3个类别;为了确保采集距离信息的准确,采用AprilTag标记物检测算法进行距离测量;
(3)位姿数据采样
用后机的USB前置摄像头采集长机在设定距离下的不同偏航角图像;长机在距离后机A的距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像,然后再将长机放到2A距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像,最后将长机放到3A距离,分别拍摄其0°、+30°、+60°、-30°、-60°的偏航角图像;
(4)样本数据多样化
用后机的前置摄像头拍摄不同场景作为背景图像,该背景图像包括多种环境,然后将之前拍摄到的不同位姿的长机图像抠图出来,贴到各种环境下的背景图像中,每种类别各制作N幅图像,对图像中的无人机、姿态、距离进行标注;
(5)样本标注
将背景多样化后的图像,在LabelImg软件中用矩形框标出图像中的长机,然后根据长机拍摄时的距离和角度,标注类型为“UAV/距离/偏航角”;
第三步:基于YOLOv3的训练与测试
对第二步标注好的图像输入YOLOv3神经网络进行训练,然后将训练好的神经网络在真实环境中对长机进行实时检测,将检测到长机在图像中的坐标、距离USB摄像头的距离和偏离规定航向的角度,以“UAV/距离/偏航角”的格式输出,作为下一步跟踪控制的输入数据;
第四步:位姿估计改善
设计一个位姿优化方法;假设无人机实际尺寸为D,D不包括螺旋桨的长度,假设旋翼无人机长度、宽度一致,USB摄像头焦距为f,YOLOv3输出的识别框长度为d,阈值ε=0.5,主要步骤如下:
(1)计算出相邻两帧图像的YOLOv3输出的双机间距离平均值z0,例如:当前帧图像YOLOv3算法输出的双机间距离为z,上一帧图像YOLOv3算法输出的双机间距离为zp,则有:
2.如权利要求1所述的小型无人机位姿数据采集方法,其特征在于,M=2000。
3.如权利要求1所述的小型无人机位姿数据采集方法,其特征在于,A=0.5米。
4.如权利要求1所述的小型无人机位姿数据采集方法,其特征在于,N=300。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911146243.5A CN110850897B (zh) | 2019-11-13 | 2019-11-13 | 面向深度神经网络的小型无人机位姿数据采集方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911146243.5A CN110850897B (zh) | 2019-11-13 | 2019-11-13 | 面向深度神经网络的小型无人机位姿数据采集方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110850897A CN110850897A (zh) | 2020-02-28 |
CN110850897B true CN110850897B (zh) | 2023-06-13 |
Family
ID=69603213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911146243.5A Active CN110850897B (zh) | 2019-11-13 | 2019-11-13 | 面向深度神经网络的小型无人机位姿数据采集方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110850897B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111176335B (zh) * | 2020-04-07 | 2020-08-14 | 成都纵横自动化技术股份有限公司 | 编队飞行导引方法及相关装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109255286A (zh) * | 2018-07-21 | 2019-01-22 | 哈尔滨工业大学 | 一种基于yolo深度学习网络框架的无人机光学快速检测识别方法 |
CN109934108A (zh) * | 2019-01-31 | 2019-06-25 | 华南师范大学 | 一种多目标多种类的车辆检测和测距系统及实现方法 |
CN110132060A (zh) * | 2019-04-26 | 2019-08-16 | 南京理工大学 | 一种基于视觉导航的拦截无人机的方法 |
CN110347035A (zh) * | 2018-04-08 | 2019-10-18 | 北京京东尚科信息技术有限公司 | 自主跟踪方法及装置、电子设备、存储介质 |
GB201913111D0 (en) * | 2019-09-11 | 2019-10-23 | Canon Kk | A method, apparatus and computer program for aquiring a training set of images |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10514711B2 (en) * | 2016-10-09 | 2019-12-24 | Airspace Systems, Inc. | Flight control using computer vision |
-
2019
- 2019-11-13 CN CN201911146243.5A patent/CN110850897B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110347035A (zh) * | 2018-04-08 | 2019-10-18 | 北京京东尚科信息技术有限公司 | 自主跟踪方法及装置、电子设备、存储介质 |
CN109255286A (zh) * | 2018-07-21 | 2019-01-22 | 哈尔滨工业大学 | 一种基于yolo深度学习网络框架的无人机光学快速检测识别方法 |
CN109934108A (zh) * | 2019-01-31 | 2019-06-25 | 华南师范大学 | 一种多目标多种类的车辆检测和测距系统及实现方法 |
CN110132060A (zh) * | 2019-04-26 | 2019-08-16 | 南京理工大学 | 一种基于视觉导航的拦截无人机的方法 |
GB201913111D0 (en) * | 2019-09-11 | 2019-10-23 | Canon Kk | A method, apparatus and computer program for aquiring a training set of images |
Non-Patent Citations (5)
Title |
---|
Exploring the most appropriate feature detector and descriptor algorithm for on-board UAV image processing;赵搏欣;《Proceeding of the 2015 IEEE International Conference on Information and Automation》;20150831;全文 * |
Image Digital Zoom Based Single Target Apriltag Recognition Algorithm in Large Scale Changes on the Distance;Haoyu DUAN;《The 1st International Conference on Industrial Artificial Intelligence》;20190727;全文 * |
基于OpenMV的3D定位识别系统;梅妍玭;《新技术新工艺》;20181231;全文 * |
基于合作二维码的旋翼无人机室内定位研究;赵搏欣;《第28届中国控制与决策会议》;20160528;全文 * |
基于深度学习的四轴无人飞行器自主跟踪问题研究;宋鸿涌;《中国优秀硕博士论文全文数据库》;20190115;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110850897A (zh) | 2020-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Detection, tracking, and geolocation of moving vehicle from uav using monocular camera | |
Khattak et al. | Keyframe-based direct thermal–inertial odometry | |
CN107741234A (zh) | 一种基于视觉的离线地图构建及定位方法 | |
CN110047142A (zh) | 无人机三维地图构建方法、装置、计算机设备及存储介质 | |
CN110470333B (zh) | 传感器参数的标定方法及装置、存储介质和电子装置 | |
CN110501036A (zh) | 传感器参数的标定检查方法及装置 | |
CN102298070A (zh) | 估算无人机,尤其是能够在自动驾驶下执行悬停飞行的无人机的水平速度的方法 | |
JP2020534198A (ja) | 移動可能物体の制御方法、機器およびシステム | |
CN114415736B (zh) | 一种无人机多阶段视觉精准降落方法和装置 | |
CN109214254B (zh) | 一种确定机器人位移的方法及装置 | |
CN108106617A (zh) | 一种无人机自动避障方法 | |
CN110764531A (zh) | 基于激光雷达与人工势场法的无人机编队飞行避障方法 | |
CN116048082A (zh) | 一种基于无人机识别的名优茶自动采摘控制系统及方法 | |
CN114034296A (zh) | 一种导航信号干扰源检测与识别方法及系统 | |
CN118135526B (zh) | 基于双目相机的四旋翼无人机视觉目标识别与定位方法 | |
Ivanovas et al. | Block matching based obstacle avoidance for unmanned aerial vehicle | |
Liu et al. | A UAV-based aircraft surface defect inspection system via external constraints and deep learning | |
CN110850897B (zh) | 面向深度神经网络的小型无人机位姿数据采集方法 | |
CN113436276B (zh) | 基于视觉相对定位的多无人机编队方法 | |
CN111402324A (zh) | 一种目标测量方法、电子设备以及计算机存储介质 | |
Zhuge et al. | 3-D motion trajectory measurement for the target through a multi-UAVs system | |
CN117419719A (zh) | 一种融合imu的三维激光雷达定位与建图方法 | |
CN105631431B (zh) | 一种可见光目标轮廓模型指导的飞机感兴趣区测谱方法 | |
CN116486290A (zh) | 一种无人机监测追踪方法、装置、电子设备及存储介质 | |
CN114419259B (zh) | 一种基于物理模型成像仿真的视觉定位方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |