CN113218394A - 扑翼飞行器室内视觉定位方法及系统 - Google Patents

扑翼飞行器室内视觉定位方法及系统 Download PDF

Info

Publication number
CN113218394A
CN113218394A CN202110424893.2A CN202110424893A CN113218394A CN 113218394 A CN113218394 A CN 113218394A CN 202110424893 A CN202110424893 A CN 202110424893A CN 113218394 A CN113218394 A CN 113218394A
Authority
CN
China
Prior art keywords
aircraft
information
pose
flapping wing
wing aircraft
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110424893.2A
Other languages
English (en)
Inventor
杜昌平
王思鹏
郑耀
宋广华
吴涵
杨睿
韩建福
刘旭光
高胡震
叶志贤
张越
李明康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202110424893.2A priority Critical patent/CN113218394A/zh
Publication of CN113218394A publication Critical patent/CN113218394A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments

Abstract

本发明公开了一种扑翼飞行器室内视觉定位方法及系统,包括内环的飞行器位姿计算以及外环的基于室内已知目标点的位姿修正。方法为:在扑翼飞行器飞行的过程中,通过多状态限制卡尔曼滤波器获得飞行器的累积位姿信息:利用惯性传感器获得的测量值进行扑翼飞行器位姿的预测,利用视觉图像得到的周围环境的点云信息进行算法内环的位姿修正;利用已知的周围环境中的目标点信息,进行算法外环的位姿修正。本发明利用惯性单元与单目摄像头即可进行扑翼飞行器室内定位,对飞行器载重性能与机载设备性能要求低,室内定位精度较高。

Description

扑翼飞行器室内视觉定位方法及系统
技术领域
本发明涉及计算机视觉领域和自动化控制领域,尤其涉及一种基于视觉的扑翼飞行器室内定位算法及系统。
背景技术
扑翼飞行器是一种仿生类飞行机器人,具有质量轻、功耗低、飞行效率高、抗干扰性强等特点,同时还具有良好的灵活性和飞行机动性,在军民用领域和其他科技领域都具有广阔的发展前景。
在自然界中有能力进行飞行的动物都采用扑翼方式进行飞行,例如鸟类、昆虫和龙。在扑动过程中通过翅膀的上下摆动,扰乱周围气流,为飞行同时提供升力和推力,有效利用能源进行长距离飞行。
传统的定位方法主要依靠卫星定位系统,在室内等信号较弱的区域定位精度较低;基于视觉与惯性单元的定位方法是一种开环的定位方法,容易产生定位漂移的现象;采用词袋模型做闭环矫正的方法需要预先建立词袋库,所占用的储存空间较大,消耗计算资源较多。
发明内容
为解决上述技术问题,本发明提供一种扑翼飞行器室内视觉定位方法及系统,该方法不需要依赖卫星定位系统或词袋库,仅需要惯性单元与单目相机即可进行工作,对飞行器载重性能与机载设备性能要求低,室内定位精度较高。
本发明所采用的解决方案为:
一种扑翼飞行器室内视觉定位方法,该方法基于扑翼飞行器的传感器并采用基于滤波的传感器融合方法实现,所述传感器包括惯性传感器与摄像头,所述方法包括内环的基于 MSCKF(多状态约束下的Kalman滤波器)的飞行器定位以及外环的基于室内已知目标点的位姿修正两部分,具体包括:首先获得扑翼飞行器初始状态的位置信息以及姿态信息,在扑翼飞行器飞行的过程中,获得飞行器的累积位姿信息,利用惯性传感器获得的测量值进行扑翼飞行器位姿的预测,并利用摄像头得到的周围环境的点云信息进行内环的位姿修正;利用摄像头检测的周围环境中的目标点信息进行外环的位姿修正。
具体包括如下:
步骤S1,获得扑翼飞行器的初始状态的位置信息X0,以及周围环境中已知的物体位置信息;
步骤S2,通过扑翼飞行器初始状态的位置信息X0及惯性传感器所测得的三轴加速度信息,进行多状态限制卡尔曼滤波器的参数初始化,得到初始状态扑翼飞行器的姿态信息,以及惯性传感器的传感器零偏与噪声的特征信息;
步骤S3,在扑翼飞行器飞行过程中,通过惯性传感器获得扑翼飞行器机体坐标系下三轴的加速度信息与角速度信息,通过加速度与角速度测量值对时间积分,得到飞行器的累积位置与姿态信息;
步骤S4,通过机载单目摄像头获得周围环境的点云信息,利用点云信息得到飞行器当前位姿的观测量,进而在滤波器框架下对步骤S3中得到的飞行器累积位姿进行修正;
步骤S5,若单目摄像头检测到环境中位置已知的物品,则通过目标检测的方法得到飞行器相对于物品的位置,进而得到飞行器在世界坐标系下的位置,对飞行器内环得到的位姿信息进行外环修正。
上述方案中,由于同一特征点会在多个相机位姿下被观测到,因此多个相机位姿之间通过特征点进行互相约束。通过所述约束即可计算出特征点的真实值与估计值之间的残差,作为滤波器的观测量。具体为:使用FAST角点检测法采集图像中的特征点,使用LK光流法对所述特征点进行跟踪,得到每个特征点在不同相机观测位姿下的重投影误差,作为滤波器的内环观测量;利用最小二乘法得到的特征点在世界坐标系下的坐标估计值,并转化到相机坐标系下,得到特征点在相机坐标系下的估计值为:
Figure BDA0003028957100000021
其中
Figure BDA0003028957100000022
分别为j号特征点在相机坐标系下的三轴位置,
Figure BDA0003028957100000023
为j号特征点的估计噪声;
则特征点的观测残差为:
Figure BDA0003028957100000024
其中
Figure BDA0003028957100000025
为j号特征点在相机坐标系下的观测值。
对周围环境中位置已知的物体,采用图像颜色域分割,再采用角点检测,得到物体的角点的大致位置后,采用非极大值抑制的方法,得到角点的精确位置。进一步的,对所述的采集得到的物体角点的精确位置,采用EPnP方法,得到飞行器自身位姿,作为飞行器的外环观测量,进行飞行器位姿修正。
本发明的有益效果在于:
本发明的基于视觉的扑翼飞行器室内定位系统仅需要惯性单元与单目相机即可进行工作,并且不需要显卡等设备进行计算加速,对飞行器载荷能力与设备性能要求较低。
本发明的基于视觉的扑翼飞行器室内定位系统不依赖于卫星定位系统与词袋模型,仅需要部分物体已知的位置信息即可对扑翼飞行器位姿进行修正,计算效率与定位精度均较高。
附图说明
下面结合附图和实施例对本发明做进一步说明。附图是示意性的,不应理解为对本发明进行任何限制,对于本领域的技术人员来讲,在不付出创造性劳动的前提下,可以根据这些附图获得其他的附图。其中:
图1是本发明的扑翼飞行器室内视觉定位方法的步骤图;
图2是本发明的扑翼飞行器室内视觉定位方法的流程逻辑图;
图3是本发明的扑翼飞行器室内视觉定位方法的滤波器结构示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
本发明设计了一种扑翼飞行器室内视觉定位方法,所述方法包括内环的基于MSCKF (多状态约束下的Kalman滤波器)的飞行器定位以及外环的基于室内已知目标点的位姿修正两部分,具体包括:首先获得扑翼飞行器初始状态的位置信息以及姿态信息,在扑翼飞行器飞行的过程中,获得飞行器的累积位姿信息,利用惯性传感器获得的测量值进行扑翼飞行器位姿的预测,并利用摄像头得到的周围环境的点云信息进行内环的位姿修正;利用摄像头检测的周围环境中的目标点信息进行外环的位姿修正。其具体步骤如图1所示,基本过程为:
步骤S1,获得扑翼飞行器的初始状态的位置信息X0,以及周围环境中已知的物体位置信息。
步骤S2,通过初始状态的位置信息以及惯性传感器三轴加速度信息,进行多状态限制卡尔曼滤波器的参数初始化,得到初始状态扑翼飞行器的姿态信息,以及惯性单元传感器的传感器零偏与噪声等特征信息。
步骤S3,在扑翼飞行器飞行过程中,通过惯性传感器获得扑翼飞行器机体坐标系下三轴的加速度信息与角速度信息,通过加速度与角速度测量值对时间积分,得到飞行器的累积位置与姿态信息。
步骤S4,通过机载单目摄像头获得周围环境的点云信息,对飞行器的累积位置与姿态进行内环修正。
步骤S5,若单目摄像头检测到环境中位置已知的物品,则通过目标检测的方法得到飞行器相对于物品的位置,进而得到飞行器在世界坐标系下的位置,对飞行器内环得到的位姿信息进行外环修正。
本发明中扑翼飞行器只需用到自身携带的传感器包括惯性测量单元传感器与单目摄像头即可实现,惯性传感器获得扑翼飞行器的累积位姿信息,单目摄像头获得飞行器周围环境信息。所述滤波器包含的状态量由惯性单元有关量与单目相机有关量构成。所述滤波器中与惯性单元有关的状态量为
Figure BDA0003028957100000041
其中
Figure BDA0003028957100000042
为世界坐标系到惯性单元坐标系的姿态转换四元数,bg T与ba T分别为陀螺仪与加速度计的三轴零偏,
Figure BDA0003028957100000043
Figure BDA0003028957100000044
为惯性单元坐标系相对于世界坐标系的三轴速度与位置。
由于惯性单元的状态量波动较大,数据分布特性不稳定,因此采用真实值与估计值之间的残差量作为滤波器状态量
Figure BDA0003028957100000045
所述滤波器中与单目相机有关的状态量为每个采样时刻相机的位姿信息。惯性单元与单目相机的信息构成完整的滤波器状态量
Figure BDA0003028957100000046
其中
Figure BDA0003028957100000047
Figure BDA0003028957100000048
分别为第i个时刻相机坐标系在世界坐标系下的姿态四元数与三轴位置。
同样变为状态量的残差形式
Figure BDA0003028957100000049
本发明中使用FAST角点检测法采集特征点,使用LK光流法对特征点进行跟踪,得到每个特征点在不同相机观测位姿下的重投影误差,作为滤波器的内环观测量。利用最小二乘法得到的特征点在世界坐标系下的坐标估计值,并转化到相机坐标系下,得到特征点在相机坐标系下的估计值为:
Figure BDA0003028957100000051
其中
Figure BDA0003028957100000052
分别为j号特征点在相机坐标系下的三轴位置,
Figure BDA0003028957100000053
为j号特征点的估计噪声;则特征点的观测残差为:
Figure BDA0003028957100000054
对周围环境中位置已知的物体,比如门窗,采用图像颜色域分割,得到物体的大致位置;对所述的分割物体,采用角点检测,得到物体的角点的大致位置;对所述的采集得到的角点,采用非极大值抑制的方法,得到角点的精确位置。
以门为例,具体方法为:获得门的四个角点在世界坐标系下的坐标,同时获得门的颜色的像素值,存入扑翼飞行器的存储器中。在运动过程中,若在图像中检测到存在一个区域,其颜色像素值与门的像素值相近,则通过施加掩膜的方法将图像二值化,提取出该区域。然后利用角点检测的方法提取出该区域的四个角点。由于在提取角点的时候会存在特征点位置集中的现象,即在门的一个角点出检测出多个特征点,因此对于每个角点附近的特征点采用极大值抑制的方法,选取出其中像素值变化最明显的特征点,作为门的角点所在的位置。然后利用EPnP的方法得到飞行器自身位置的观测值。若观测值与状态量预测值相差在允许范围内,则认为得到了合理的观测值,进行外环校正。对所述的采集得到的物体角点的精确位置,采用EPnP方法,得到飞行器自身位姿,作为飞行器的外环观测量,进行飞行器位姿修正。
本发明中滤波器的运行流程可以如图2所示,主要分为
(1)处理器接收到惯性传感器测量得到的数据,利用加速度与角速度信息进行状态量的累积,得到飞行器位姿的预测量。
(2)由于惯性传感器的采样频率为200Hz左右,远大于图像的采样频率(20Hz左右),因此如果处理器未接收到最新的图像数据,则不断重复利用惯性传感器数据累积,得到位姿预测量;若处理器接收到最新的图像数据,则计算观测量误差,进行内环更新;
若相机未采集到位置已知的物体,则重复(1)(2);若相机采集到了含有位置已知的物体的图像,则在进行(1)(2)的同时,进行状态量的外环校正,减小状态量的漂移。
所述的滤波器结构如图3所示。本发明使用的是基于多状态限制卡尔曼滤波器的滤波算法。状态量预测公式为:
Figure BDA0003028957100000061
协方差矩阵由四部分构成,分别是惯性单元协方差矩阵
Figure BDA0003028957100000062
相机观测量协方差矩阵
Figure BDA0003028957100000063
以及两个惯性单元-相机关联协方差矩阵
Figure BDA0003028957100000064
Figure BDA0003028957100000065
Figure BDA0003028957100000066
观测模型为
Figure BDA0003028957100000067
其中H为观测矩阵,noise为观测噪声。为了降低对计算负载的要求,对H进行QR分解,得到
Figure BDA0003028957100000068
Figure BDA0003028957100000069
增益矩阵为
Figure BDA00030289571000000610
状态量更新
ΔX=Krn
协方差矩阵更新
Pk+1∣k+1=(I-KTH)Pk+1∣k(I-KTH)T+KRnKT

Claims (5)

1.扑翼飞行器室内视觉定位方法,其特征在于,该方法基于扑翼飞行器的传感器并采用基于滤波的传感器融合方法实现,所述传感器包括惯性传感器与摄像头,所述方法包括内环的基于MSCKF的飞行器定位以及外环的基于室内已知目标点的位姿修正两部分,具体包括:首先获得扑翼飞行器初始状态的位置信息以及姿态信息,在扑翼飞行器飞行的过程中,获得飞行器的累积位姿信息,利用惯性传感器获得的测量值进行扑翼飞行器位姿的预测,并利用摄像头得到的周围环境的点云信息进行内环的位姿修正;利用摄像头检测的周围环境中的目标点信息进行外环的位姿修正。
2.根据权利要求1所述的扑翼飞行器室内视觉定位方法,其特征在于,包括:
步骤S1,获得扑翼飞行器的初始状态的位置信息X0,以及周围环境中已知的物体位置信息;
步骤S2,通过扑翼飞行器初始状态的位置信息X0及惯性传感器所测得的三轴加速度信息,进行多状态限制卡尔曼滤波器的参数初始化,得到初始状态扑翼飞行器的姿态信息,以及惯性传感器的传感器零偏与噪声的特征信息;
步骤S3,在扑翼飞行器飞行过程中,通过惯性传感器获得扑翼飞行器机体坐标系下三轴的加速度信息与角速度信息,通过加速度与角速度测量值对时间积分,得到飞行器的累积位置与姿态信息;
步骤S4,通过机载单目摄像头获得周围环境的点云信息,利用点云信息得到飞行器当前位姿的观测量,进而在滤波器框架下对步骤S3中得到的飞行器累积位姿进行修正;
步骤S5,若单目摄像头检测到环境中位置已知的物品,则通过目标检测的方法得到飞行器相对于物品的位置,进而得到飞行器在世界坐标系下的位置,对飞行器内环得到的位姿信息进行外环修正。
3.根据权利要求1所述扑翼飞行器室内视觉定位方法,其特征在于,使用FAST角点检测法采集图像中的特征点,使用LK光流法对所述特征点进行跟踪,得到每个特征点在不同相机观测位姿下的重投影误差,作为滤波器的内环观测量;利用最小二乘法得到的特征点在世界坐标系下的坐标估计值,并转化到相机坐标系下,得到特征点在相机坐标系下的估计值为:
Figure FDA0003028957090000021
其中
Figure FDA0003028957090000022
分别为j号特征点在相机坐标系下的三轴位置,
Figure FDA0003028957090000023
为j号特征点的估计噪声;
则特征点的观测残差为:
Figure FDA0003028957090000024
其中
Figure FDA0003028957090000025
为j号特征点在相机坐标系下的观测值。
4.根据权利要求1所述扑翼飞行器室内视觉定位方法,其特征在于,对周围环境中位置已知的物体,采用图像颜色域分割,再采用角点检测,得到物体的角点的大致位置后,采用非极大值抑制的方法,得到角点的精确位置。
5.根据权利要求4所述扑翼飞行器室内视觉定位方法,其特征在于,对所述的采集得到的物体角点的精确位置,采用EPnP方法,得到飞行器自身位姿,作为飞行器的外环观测量,进行飞行器位姿修正。
CN202110424893.2A 2021-04-20 2021-04-20 扑翼飞行器室内视觉定位方法及系统 Pending CN113218394A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110424893.2A CN113218394A (zh) 2021-04-20 2021-04-20 扑翼飞行器室内视觉定位方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110424893.2A CN113218394A (zh) 2021-04-20 2021-04-20 扑翼飞行器室内视觉定位方法及系统

Publications (1)

Publication Number Publication Date
CN113218394A true CN113218394A (zh) 2021-08-06

Family

ID=77088246

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110424893.2A Pending CN113218394A (zh) 2021-04-20 2021-04-20 扑翼飞行器室内视觉定位方法及系统

Country Status (1)

Country Link
CN (1) CN113218394A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115840459A (zh) * 2023-01-04 2023-03-24 北京科技大学 一种面向扑翼飞行器的单目视觉避障系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108007456A (zh) * 2017-12-06 2018-05-08 深圳市致趣科技有限公司 一种室内导航方法、装置及系统
CN109341686A (zh) * 2018-12-04 2019-02-15 中国航空工业集团公司西安航空计算技术研究所 一种基于视觉-惯性紧耦合的飞行器着陆位姿估计方法
CN109520497A (zh) * 2018-10-19 2019-03-26 天津大学 基于视觉和imu的无人机自主定位方法
US20200053292A1 (en) * 2018-08-10 2020-02-13 Aurora Flight Sciences Corporation Object-Tracking System
CN111197984A (zh) * 2020-01-15 2020-05-26 重庆邮电大学 一种基于环境约束下的视觉-惯性运动估计方法
CN111811506A (zh) * 2020-09-15 2020-10-23 中国人民解放军国防科技大学 视觉/惯性里程计组合导航方法、电子设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108007456A (zh) * 2017-12-06 2018-05-08 深圳市致趣科技有限公司 一种室内导航方法、装置及系统
US20200053292A1 (en) * 2018-08-10 2020-02-13 Aurora Flight Sciences Corporation Object-Tracking System
CN109520497A (zh) * 2018-10-19 2019-03-26 天津大学 基于视觉和imu的无人机自主定位方法
CN109341686A (zh) * 2018-12-04 2019-02-15 中国航空工业集团公司西安航空计算技术研究所 一种基于视觉-惯性紧耦合的飞行器着陆位姿估计方法
CN111197984A (zh) * 2020-01-15 2020-05-26 重庆邮电大学 一种基于环境约束下的视觉-惯性运动估计方法
CN111811506A (zh) * 2020-09-15 2020-10-23 中国人民解放军国防科技大学 视觉/惯性里程计组合导航方法、电子设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115840459A (zh) * 2023-01-04 2023-03-24 北京科技大学 一种面向扑翼飞行器的单目视觉避障系统

Similar Documents

Publication Publication Date Title
CN106643737B (zh) 风力干扰环境下四旋翼飞行器姿态解算方法
CN107014380B (zh) 基于飞行器的视觉导航与惯性导航的组合导航方法
Bayard et al. Vision-based navigation for the NASA mars helicopter
CN110243358A (zh) 多源融合的无人车室内外定位方法及系统
CN113124856B (zh) 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
CN116182837A (zh) 基于视觉激光雷达惯性紧耦合的定位建图方法
CN108444468B (zh) 一种融合下视视觉与惯导信息的定向罗盘
CN113465596B (zh) 一种基于多传感器融合的四旋翼无人机定位方法
CN113218394A (zh) 扑翼飞行器室内视觉定位方法及系统
Xian et al. Hovering control of a nano quadrotor unmanned aerial vehicle using optical flow
CN112444245A (zh) 一种基于偏振光、光流矢量、双目视觉传感器的仿昆虫视觉组合导航方法
CN112254723A (zh) 基于自适应ekf算法的小型无人机marg航姿估计方法
Crocoll et al. Quadrotor inertial navigation aided by a vehicle dynamics model with in-flight parameter estimation
Liu et al. Semi-dense visual-inertial odometry and mapping for quadrotors with swap constraints
CN113206951B (zh) 一种基于扑翼飞行系统的实时电子稳像方法
CN115727842A (zh) 一种无人机快速对准方法、系统、计算机设备及存储介质
CN112556691B (zh) 一种用于无人机自主导航与温度测量系统的方法
Zhang et al. Research on UAV attitude data fusion algorithm based on quaternion gradient descent
Cao et al. Research on application of computer vision assist technology in high-precision UAV navigation and positioning
Zhang et al. An improved MCS/INS integrated navigation algorithm for multi-rotor UAV in indoor flight
Shen et al. Vision-based Autonomous Tracking and Landing Method for UAV on a Dynamic Platform
Qi et al. A state estimator of UAV using time-delayed position and IMU data
Dong et al. Robot Global Relocalization Based on Multi-sensor Data Fusion
CN111207741A (zh) 一种基于室内视觉vicon系统的无人机导航定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210806

WD01 Invention patent application deemed withdrawn after publication