CN105807083A - 一种无人飞行器实时测速方法及系统 - Google Patents

一种无人飞行器实时测速方法及系统 Download PDF

Info

Publication number
CN105807083A
CN105807083A CN201610147110.XA CN201610147110A CN105807083A CN 105807083 A CN105807083 A CN 105807083A CN 201610147110 A CN201610147110 A CN 201610147110A CN 105807083 A CN105807083 A CN 105807083A
Authority
CN
China
Prior art keywords
data
unmanned vehicle
time
speed
angular acceleration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610147110.XA
Other languages
English (en)
Other versions
CN105807083B (zh
Inventor
高建民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHENZHEN CITY GAOJU INNOVATION TECHNOLOGY DEVELOPMENT Co Ltd
Original Assignee
SHENZHEN CITY GAOJU INNOVATION TECHNOLOGY DEVELOPMENT Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHENZHEN CITY GAOJU INNOVATION TECHNOLOGY DEVELOPMENT Co Ltd filed Critical SHENZHEN CITY GAOJU INNOVATION TECHNOLOGY DEVELOPMENT Co Ltd
Priority to CN201610147110.XA priority Critical patent/CN105807083B/zh
Publication of CN105807083A publication Critical patent/CN105807083A/zh
Application granted granted Critical
Publication of CN105807083B publication Critical patent/CN105807083B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • G01P3/38Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light using photographic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • G01C23/005Flight directors

Abstract

本发明涉及无人飞行器领域,尤其涉及一种无人飞行器实时测速方法及系统。本发明的技术方案采用多种传感器和多个计算模块,实现了无人飞行器速度的实时监测。目前无人飞行器测速方面,精确度较高的是基于GPS数据和飞行器惯导的测速,但是其局限于室外环境,即为能够收到GPS信号的地方。然而本发明采集了无人飞行器的高度、加速度、角加速度等姿态数据,并且结合图像光流算法,计算得到更加精确的实时速度,本发明技术方案的实施不局限在室外,在室内环境同样可以检测到更加精确的实时速度。

Description

一种无人飞行器实时测速方法及系统
技术领域
本发明涉及无人飞行器领域,尤其涉及一种无人飞行器实时测速方法及系统。
背景技术
如今,无人飞行器在各行各业的应用有了飞速发展,出现了更多智能型无人飞行器。而随着飞行速度及飞行高度的不断增加,对无人飞行器本身性能要求也不断提高,对在各种环境下无人飞行器实时速度、高度信息的准确监测成为重要议题。这些实时信息的准确与稳定,对智能型无人飞行器的发展有着重要意义。
无人飞行器自身带有许多传感器用于监测自身姿态,但只能对速度进行一定的估计,虽然通过GPS可以计算得到当前实时速度,但是需要时刻能够搜到卫星,方能实施。
因此,有必要提供一种无人飞行器实时测速方法及系统,无需通过卫星获取当前实时的速度。
发明内容
本发明所要解决的技术问题是:提供一种无人飞行器实时测速方法及系统,无需通过卫星即可监测得到该无人飞行器的当前实时速度。
为了解决上述技术问题,本发明采用的技术方案为:
一种无人飞行器实时测速方法,包括:
预设无人飞行器上摄像头的焦距数据、感光元件尺寸数据和连续两帧图像的时间间隔数据;设置在无人飞行器上的摄像头获取连续两帧的图像数据,计算得到当前时刻的第一光流;
获取无人飞行器当前时刻的第一高度数据和第一角加速度数据,根据所述焦距数据、感光元件尺寸数据、时间间隔数据、第一光流、第一高度数据和第一角加速度数据,计算得到当前时刻的第一无人飞行器速度;
获取无人飞行器当前时刻的加速度数据,根据所述无人飞行器速度、所述加速度数据和所述时间间隔数据,计算得到下一时刻的预测速度;
根据所述时间间隔数据、第一高度数据、焦距数据、感光元件尺寸数据和所述预测速度,计算得到下一时刻的像素距离数据;
根据所述第一光流和所述像素距离数据,计算得到下一时刻的第二光流;
获取无人飞行器下一时刻的第二高度数据和第二角加速度数据,根据所述时间间隔数据、焦距数据、感光元件尺寸数据、第二光流、第二高度数据和第二角加速度数据,计算得到下一时刻的第二无人飞行器速度;所述第二无人飞行器速度为无人飞行器实时测速。
本发明提供了另一技术方案为:
一种无人飞行器实时测速系统,包括第一计算模块、第二计算模块、第三计算模块、第四计算模块、第五计算模块和第六计算模块;
所述第一计算模块,用于预设无人飞行器上摄像头的焦距数据、感光元件尺寸数据和连续两帧图像的时间间隔数据;设置在无人飞行器上的摄像头获取连续两帧的图像数据,计算得到当前时刻的第一光流;
所述第二计算模块,用于获取无人飞行器当前时刻的第一高度数据和第一角加速度数据,根据所述焦距数据、感光元件尺寸数据、时间间隔数据、第一光流、第一高度数据和第一角加速度数据,计算得到当前时刻的第一无人飞行器速度;
所述第三计算模块,用于获取无人飞行器当前时刻的加速度数据,根据所述无人飞行器速度、所述加速度数据和所述时间间隔数据,计算得到下一时刻的预测速度;
所述第四计算模块,用于根据所述时间间隔数据、第一高度数据、焦距数据、感光元件尺寸数据和所述预测速度,计算得到下一时刻的像素距离数据;
所述第五计算模块,用于根据所述第一光流和所述像素距离数据,计算得到下一时刻的第二光流;
所述第六计算模块,用于获取无人飞行器下一时刻的第二高度数据和第二角加速度数据,根据所述时间间隔数据、焦距数据、感光元件尺寸数据、第二光流、第二高度数据和第二角加速度数据,计算得到下一时刻的第二无人飞行器速度;所述第二无人飞行器速度为无人飞行器实时测速。
本发明的有益效果在于:本发明的技术方案采用多种传感器和多个计算模块,实现了无人飞行器速度的实时监测。目前无人飞行器测速方面,精确度较高的是基于GPS数据和飞行器惯导的测速,但是其局限于室外环境,即为能够收到GPS信号的地方。然而本发明采集了无人飞行器的高度、加速度、角加速度等姿态数据,并且结合图像光流算法,计算得到更加精确的实时速度,本发明技术方案的实施不局限在室外,在室内环境同样可以检测到更加精确的实时速度。
附图说明
图1为本发明的一种无人飞行器实时测速方法的步骤流程图;
图2为本发明的一种无人飞行器实时测速系统的结构示意图;
标号说明:
1、第一计算模块;2、第二计算模块;3、第三计算模块;4、第四计算模块;5、第五计算模块;6、第六计算模块。
具体实施方式
为详细说明本发明的技术内容、所实现目的及效果,以下结合实施方式并配合附图予以说明。
本发明最关键的构思在于:无人飞行器的实时测速是实时更新的光流以及当前时刻的无人飞行器速度,计算得出下一时刻的无人飞行器速度,即为本发明实时监测得出的无人飞行器速度。
本发明涉及的技术术语解释:
请参照图1,本发明提供的一种无人飞行器实时测速方法,包括:
预设无人飞行器上摄像头的焦距数据、感光元件尺寸数据和连续两帧图像的时间间隔数据;设置在无人飞行器上的摄像头获取连续两帧的图像数据,计算得到当前时刻的第一光流;
获取无人飞行器当前时刻的第一高度数据和第一角加速度数据,根据所述焦距数据、感光元件尺寸数据、时间间隔数据、第一光流、第一高度数据和第一角加速度数据,计算得到当前时刻的第一无人飞行器速度;
获取无人飞行器当前时刻的加速度数据,根据所述无人飞行器速度、所述加速度数据和所述时间间隔数据,计算得到下一时刻的预测速度;
根据所述时间间隔数据、第一高度数据、焦距数据、感光元件尺寸数据和所述预测速度,计算得到下一时刻的像素距离数据;
根据所述第一光流和所述像素距离数据,计算得到下一时刻的第二光流;
获取无人飞行器下一时刻的第二高度数据和第二角加速度数据,根据所述时间间隔数据、焦距数据、感光元件尺寸数据、第二光流、第二高度数据和第二角加速度数据,计算得到下一时刻的第二无人飞行器速度;所述第二无人飞行器速度为无人飞行器实时测速。
从上述描述可知,本发明的有益效果在于:本发明的技术方案采用多种传感器和多个计算模块,实现了无人飞行器速度的实时监测。目前无人飞行器测速方面,精确度较高的是基于GPS数据和飞行器惯导的测速,但是其局限于室外环境,即为能够收到GPS信号的地方。然而本发明采集了无人飞行器的高度、加速度、角加速度等姿态数据,并且结合图像光流算法,计算得到更加精确的实时速度,本发明技术方案的实施不局限在室外,在室内环境同样可以检测到更加精确的实时速度。
进一步的,所述第一光流的计算方法采用金字塔模型、Kanade-Lucas-Tomasi算法或块匹配。
进一步的,所述第一角加速度数据和第二角加速度数据为三维角加速度数据;所述加速度数据为三维加速度数据。
由上述描述可知,结合三维数据,包括x轴、y轴和z轴,使得监测得到的无人飞行器速度更加精确。
请参阅图2,本发明提供的一种无人飞行器实时测速系统,包括第一计算模块1、第二计算模块2、第三计算模块3、第四计算模块4、第五计算模块5和第六计算模块6;
所述第一计算模块1,用于预设无人飞行器上摄像头的焦距数据、感光元件尺寸数据和连续两帧图像的时间间隔数据;设置在无人飞行器上的摄像头获取连续两帧的图像数据,计算得到当前时刻的第一光流;
所述第二计算模块2,用于获取无人飞行器当前时刻的第一高度数据和第一角加速度数据,根据所述焦距数据、感光元件尺寸数据、时间间隔数据、第一光流、第一高度数据和第一角加速度数据,计算得到当前时刻的第一无人飞行器速度;
所述第三计算模块3,用于获取无人飞行器当前时刻的加速度数据,根据所述无人飞行器速度、所述加速度数据和所述时间间隔数据,计算得到下一时刻的预测速度;
所述第四计算模块4,用于根据所述时间间隔数据、第一高度数据、焦距数据、感光元件尺寸数据和所述预测速度,计算得到下一时刻的像素距离数据;
所述第五计算模块5,用于根据所述第一光流和所述像素距离数据,计算得到下一时刻的第二光流;
所述第六计算模块6,用于获取无人飞行器下一时刻的第二高度数据和第二角加速度数据,根据所述时间间隔数据、焦距数据、感光元件尺寸数据、第二光流、第二高度数据和第二角加速度数据,计算得到下一时刻的第二无人飞行器速度;所述第二无人飞行器速度为无人飞行器实时测速。
从上述描述可知,本发明的有益效果在于:本发明的技术方案采用多种传感器和多个计算模块,实现了无人飞行器速度的实时监测。目前无人飞行器测速方面,精确度较高的是基于GPS数据和飞行器惯导的测速,但是其局限于室外环境,即为能够收到GPS信号的地方。然而本发明采集了无人飞行器的高度、加速度、角加速度等姿态数据,并且结合图像光流算法,计算得到更加精确的实时速度,本发明技术方案的实施不局限在室外,在室内环境同样可以检测到更加精确的实时速度。
进一步的,所述第一光流的计算方法采用金字塔模型、Kanade-Lucas-Tomasi算法或块匹配。
进一步的,所述第一角加速度数据和第二角加速度数据为三维角加速度数据;所述加速度数据为三维加速度数据。
由上述描述可知,结合三维数据,包括x轴、y轴和z轴,使得监测得到的无人飞行器速度更加精确。
请参照图1-2,本发明的实施例一为:
本发明提供的一种无人飞行器实时测速方法,包括:
1、预设无人飞行器上摄像头的焦距数据f、感光元件尺寸数据Δx和连续两帧图像的时间间隔数据t;设置在无人飞行器上的摄像头获取连续两帧的图像数据,根据Kanade-Lucas-Tomasi算法【如下参考文献1】和块匹配算法【如下参考文献2】对两幅图像计算各像素点的光流,然后采用最大概率统计法,计算出当前时刻图像的光流flow_v;所述光流的计算方法包括但是不限于金字塔模型,Kanade-Lucas-Tomasi算法和块匹配等;参考文献如下:
[1]ShiJ,TomasiC.GoodFeaturestoTrack[J].ComputerVision&PatternRecognition.proceedingsCvpr.ieeeComputerSociet,1994,volume84(9):593-600。
[2]GhanbariM.Thecross-searchalgorithmformotionestimation[imagecoding][J].CommunicationsIEEETransactionson,1990,38(7):950-953。
2、获取无人飞行器当前时刻的高度数据h、角加速度数据α和加速度数据a,根据所述焦距数据f、感光元件尺寸数据Δx、时间间隔数据t、光流flow_v、高度数据h和角加速度数据α,计算得到当前时刻无人飞行器的速度v1;具体为:将上述的高度数据h、角加速度数据α、焦距数据f、感光元件尺寸数据Δx、时间间隔数据t和光流flow_v,代入式1中,计算得到当前时刻无人飞行器的速度v1;
v1=(flow_v–α*t*f/Δx)/t/f*Δx*h式1;
其中无人飞行器当前时刻的高度数据h是通过在无人飞行器的底部设置超声波模块,所述超声波模块包括收发分立的双头超声波和收发合一的单头超声波,通过该超声波模块可以采集到无人飞行器的底部到地面的高度数据h;
其中无人飞行器当前时刻的角加速度数据α是通过在无人飞行器上设置陀螺仪模块,通过陀螺仪模块采集无人飞行器的三轴角加速度数据;
其中无人飞行器当前时刻的加速度数据a是通过在无人飞行器上设置加速度模块采集无人飞行器的三轴加速度数据;
陀螺仪模块和加速度模块二者集成在无人飞行器中;
3、根据计算得到的当前时刻无人飞行器的速度v1、获取的无人飞行器的加速度数据a以及时间间隔数据t,计算得到下一时刻预测的速度;
具体为:将上述的v1、a和t代入式2,计算得下一时刻预测的速度v2;
v2=v1+a*t式2;
4、根据所述时间间隔数据t、高度数据h、焦距数据f、感光元件尺寸数据Δx以及计算得到的下一时刻预测的速度v2,计算得到下一时刻的像素距离数据pre_flow_v;
具体为:将上述的t、h、f、Δx和v2代入式3,计算得下一时刻的像素距离数据pre_flow_v;
所述像素距离的计算公式为:pre_flow_v=v2*t/h*f/Δx式3;
5、通过当前时刻的光流数据flow_v和计算得到的下一时刻的像素距离数据pre_flow_v,计算得到下一时刻的光流数据flow_v’;
具体为:将上述的flow_v和pre_flow_v代入式4,计算得下一时刻的光流数据flow_v’;
flow_v’=flow_v+pre_flow_v式4;
6、获取无人飞行器下一时刻的高度数据h’和角加速度数据α’,根据所述时间间隔数据t、焦距数据f、感光元件尺寸数据Δx、计算得到的下一时刻的光流数据flow_v’、获取的下一时刻的高度数据h’和角加速度数据α’,计算得到下一时刻的速度。将上述参数代入式1,即可得到下一时刻的精确速度。
综上所述,本发明提供的一种无人飞行器实时测速方法及系统,本发明的技术方案采用多种传感器和多个计算模块,实现了无人飞行器速度的实时监测。目前无人飞行器测速方面,精确度较高的是基于GPS数据和飞行器惯导的测速,但是其局限于室外环境,即为能够收到GPS信号的地方。然而本发明采集了无人飞行器的高度、加速度、角加速度等姿态数据,并且结合图像光流算法,计算得到更加精确的实时速度,本发明技术方案的实施不局限在室外,在室内环境同样可以检测到更加精确的实时速度。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等同变换,或直接或间接运用在相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (6)

1.一种无人飞行器实时测速方法,其特征在于,包括:
预设无人飞行器上摄像头的焦距数据、感光元件尺寸数据和连续两帧图像的时间间隔数据;设置在无人飞行器上的摄像头获取连续两帧的图像数据,计算得到当前时刻的第一光流;
获取无人飞行器当前时刻的第一高度数据和第一角加速度数据,根据所述焦距数据、感光元件尺寸数据、时间间隔数据、第一光流、第一高度数据和第一角加速度数据,计算得到当前时刻的第一无人飞行器速度;
获取无人飞行器当前时刻的加速度数据,根据所述无人飞行器速度、所述加速度数据和所述时间间隔数据,计算得到下一时刻的预测速度;
根据所述时间间隔数据、第一高度数据、焦距数据、感光元件尺寸数据和所述预测速度,计算得到下一时刻的像素距离数据;
根据所述第一光流和所述像素距离数据,计算得到下一时刻的第二光流;
获取无人飞行器下一时刻的第二高度数据和第二角加速度数据,根据所述时间间隔数据、焦距数据、感光元件尺寸数据、第二光流、第二高度数据和第二角加速度数据,计算得到下一时刻的第二无人飞行器速度;所述第二无人飞行器速度为无人飞行器实时测速。
2.根据权利要求1所述的无人飞行器实时测速方法,其特征在于,所述第一光流的计算方法采用金字塔模型、Kanade-Lucas-Tomasi算法或块匹配。
3.根据权利要求1所述的无人飞行器实时测速方法,其特征在于,所述第一角加速度数据和第二角加速度数据为三维角加速度数据;所述加速度数据为三维加速度数据。
4.一种无人飞行器实时测速系统,其特征在于,包括第一计算模块、第二计算模块、第三计算模块、第四计算模块、第五计算模块和第六计算模块;
所述第一计算模块,用于预设无人飞行器上摄像头的焦距数据、感光元件尺寸数据和连续两帧图像的时间间隔数据;设置在无人飞行器上的摄像头获取连续两帧的图像数据,计算得到当前时刻的第一光流;
所述第二计算模块,用于获取无人飞行器当前时刻的第一高度数据和第一角加速度数据,根据所述焦距数据、感光元件尺寸数据、时间间隔数据、第一光流、第一高度数据和第一角加速度数据,计算得到当前时刻的第一无人飞行器速度;
所述第三计算模块,用于获取无人飞行器当前时刻的加速度数据,根据所述无人飞行器速度、所述加速度数据和所述时间间隔数据,计算得到下一时刻的预测速度;
所述第四计算模块,用于根据所述时间间隔数据、第一高度数据、焦距数据、感光元件尺寸数据和所述预测速度,计算得到下一时刻的像素距离数据;
所述第五计算模块,用于根据所述第一光流和所述像素距离数据,计算得到下一时刻的第二光流;
所述第六计算模块,用于获取无人飞行器下一时刻的第二高度数据和第二角加速度数据,根据所述时间间隔数据、焦距数据、感光元件尺寸数据、第二光流、第二高度数据和第二角加速度数据,计算得到下一时刻的第二无人飞行器速度;所述第二无人飞行器速度为无人飞行器实时测速。
5.根据权利要求4所述的无人飞行器实时测速系统,其特征在于,所述第一光流的计算方法采用金字塔模型、Kanade-Lucas-Tomasi算法或块匹配。
6.根据权利要求4所述的无人飞行器实时测速系统,其特征在于,所述第一角加速度数据和第二角加速度数据为三维角加速度数据;所述加速度数据为三维加速度数据。
CN201610147110.XA 2016-03-15 2016-03-15 一种无人飞行器实时测速方法及系统 Active CN105807083B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610147110.XA CN105807083B (zh) 2016-03-15 2016-03-15 一种无人飞行器实时测速方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610147110.XA CN105807083B (zh) 2016-03-15 2016-03-15 一种无人飞行器实时测速方法及系统

Publications (2)

Publication Number Publication Date
CN105807083A true CN105807083A (zh) 2016-07-27
CN105807083B CN105807083B (zh) 2019-03-12

Family

ID=56467529

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610147110.XA Active CN105807083B (zh) 2016-03-15 2016-03-15 一种无人飞行器实时测速方法及系统

Country Status (1)

Country Link
CN (1) CN105807083B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107044855A (zh) * 2017-05-05 2017-08-15 南京信息工程大学 一种基于摄像头阵列的惯性测量装置及方法
CN107148000A (zh) * 2017-05-15 2017-09-08 武汉星巡智能科技有限公司 无人飞行器室内定位数据处理方法及装置
CN113296139A (zh) * 2021-05-27 2021-08-24 桂林电子科技大学 一种自适应图像光流与rtk融合测姿方法
WO2024067473A1 (zh) * 2022-09-29 2024-04-04 影石创新科技股份有限公司 飞行器的速度监测方法、装置、存储介质及飞行器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102298070A (zh) * 2010-06-22 2011-12-28 鹦鹉股份有限公司 估算无人机,尤其是能够在自动驾驶下执行悬停飞行的无人机的水平速度的方法
CN103365297A (zh) * 2013-06-29 2013-10-23 天津大学 基于光流的四旋翼无人机飞行控制方法
CN103913588A (zh) * 2014-04-10 2014-07-09 深圳市大疆创新科技有限公司 无人飞行器的飞行参数的测量方法及装置
CN105352495A (zh) * 2015-11-17 2016-02-24 天津大学 加速度与光流传感器数据融合无人机水平速度控制方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102298070A (zh) * 2010-06-22 2011-12-28 鹦鹉股份有限公司 估算无人机,尤其是能够在自动驾驶下执行悬停飞行的无人机的水平速度的方法
CN103365297A (zh) * 2013-06-29 2013-10-23 天津大学 基于光流的四旋翼无人机飞行控制方法
CN103913588A (zh) * 2014-04-10 2014-07-09 深圳市大疆创新科技有限公司 无人飞行器的飞行参数的测量方法及装置
CN105352495A (zh) * 2015-11-17 2016-02-24 天津大学 加速度与光流传感器数据融合无人机水平速度控制方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107044855A (zh) * 2017-05-05 2017-08-15 南京信息工程大学 一种基于摄像头阵列的惯性测量装置及方法
CN107148000A (zh) * 2017-05-15 2017-09-08 武汉星巡智能科技有限公司 无人飞行器室内定位数据处理方法及装置
CN107148000B (zh) * 2017-05-15 2019-07-05 武汉星巡智能科技有限公司 无人飞行器室内定位数据处理方法及装置
CN113296139A (zh) * 2021-05-27 2021-08-24 桂林电子科技大学 一种自适应图像光流与rtk融合测姿方法
WO2024067473A1 (zh) * 2022-09-29 2024-04-04 影石创新科技股份有限公司 飞行器的速度监测方法、装置、存储介质及飞行器

Also Published As

Publication number Publication date
CN105807083B (zh) 2019-03-12

Similar Documents

Publication Publication Date Title
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
Zhao et al. Detection, tracking, and geolocation of moving vehicle from uav using monocular camera
CN104215239B (zh) 基于视觉的无人机自主着陆导引装置实现的导引方法
US10703479B2 (en) Unmanned aerial vehicle, control systems for unmanned aerial vehicle and control method thereof
CN109506642B (zh) 一种机器人多相机视觉惯性实时定位方法及装置
Shen et al. Optical flow sensor/INS/magnetometer integrated navigation system for MAV in GPS-denied environment
CN113124856B (zh) 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法
US20180075614A1 (en) Method of Depth Estimation Using a Camera and Inertial Sensor
CN105807083A (zh) 一种无人飞行器实时测速方法及系统
CN114088087B (zh) 无人机gps-denied下高可靠高精度导航定位方法和系统
CN111623773B (zh) 一种基于鱼眼视觉和惯性测量的目标定位方法及装置
CN110398258A (zh) 一种惯性导航系统的性能测试装置及方法
CN111768489A (zh) 一种室内导航地图构建方法和系统
CN111652276B (zh) 一种全天候便携式多功能仿生定位定姿观瞄系统及方法
CN115307646B (zh) 一种多传感器融合的机器人定位方法、系统及装置
Lee et al. Calibration of a UAV based low altitude multi-sensor photogrammetric system
CN205539050U (zh) 一种无人飞行器实时测速装置
CN108322698B (zh) 基于多摄像机和惯性测量单元融合的系统和方法
Wang et al. Micro aerial vehicle navigation with visual-inertial integration aided by structured light
CN114689046B (zh) 一种无人机巡检隧道的方法与系统
Cisneros et al. Alto: A large-scale dataset for UAV visual place recognition and localization
CN113436276B (zh) 基于视觉相对定位的多无人机编队方法
Deneault et al. Tracking ground targets with measurements obtained from a single monocular camera mounted on an unmanned aerial vehicle
Chen et al. ECMD: An Event-Centric Multisensory Driving Dataset for SLAM
CN208314856U (zh) 一种用于单目机载目标检测的系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant