CN108759826A - 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法 - Google Patents

一种基于手机和无人机多传感参数融合的无人机运动跟踪方法 Download PDF

Info

Publication number
CN108759826A
CN108759826A CN201810323707.4A CN201810323707A CN108759826A CN 108759826 A CN108759826 A CN 108759826A CN 201810323707 A CN201810323707 A CN 201810323707A CN 108759826 A CN108759826 A CN 108759826A
Authority
CN
China
Prior art keywords
imu
unmanned plane
formula
error
mobile phone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810323707.4A
Other languages
English (en)
Other versions
CN108759826B (zh
Inventor
陈朋
徐天宇
任金金
王海霞
刘义鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201810323707.4A priority Critical patent/CN108759826B/zh
Publication of CN108759826A publication Critical patent/CN108759826A/zh
Application granted granted Critical
Publication of CN108759826B publication Critical patent/CN108759826B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Abstract

一种基于手机和无人机多传感参数融合的无人机运动跟踪方法包括以下步骤:1)设计Android应用程序,获取手机的加速度计和陀螺仪参数,并将IMU参数制成ROS信息格式,最后通过Wi‑Fi发送至无人机端;2)获取手机和无人机的IMU参数,建立IMU状态模型,误差状态模型;3)根据获取到的图像提取运动目标;4)使用多速率扩展卡尔曼滤波对相对位姿进行滤波。本发明提出一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,大大提高了跟踪的精度和鲁棒性。

Description

一种基于手机和无人机多传感参数融合的无人机运动跟踪 方法
技术领域
本发明涉及无人飞行器航拍领域,尤其是针对旋翼飞行器的多传感参数融合来实现的一种运动跟踪方法。
背景技术
近年来,随着计算机技术,自动控制理论,嵌入式开发,芯片设计以及传感器技术的迅速发展,让无人飞行器能够在更加小型化的同时,拥有更强的处理能力,无人机上的相关技术也受到越来越多的关注;小型无人机拥有操控灵活,续航能力强等优势,从而能够在狭小环境中处理复杂任务,在军事上能够执行军事打击,恶劣环境下搜索,情报收集,等高风险环境下替代士兵的工作;在民用上,为各行各业从业人员提供航拍,远程设备巡检,环境监测,抢险救灾等等功能;
四旋翼为常见旋翼无人飞行器,通过调节电机转速实现飞行器的俯仰,横滚以及偏航动作;相对于固定翼无人机,旋翼无人机拥有明显的优势:首先,机身结构简单、体积小,单位体积可产生更大升力;其次,动力系统简单,只需调整各旋翼驱动电机转速即可完成空中姿态的控制,可实现垂直起降、空中悬停等多种特有的飞行模式,且系统智能度高,飞行器空中姿态保持能力强;
在无人机上搭载高清摄像头,实时运行机器视觉算法已经成为近年来热点研究领域,无人机拥有灵活的视角,能帮助人们捕获一些地面移动摄像机难以捕捉到的图像,如果将轻量级摄像头嵌入到小型四旋翼无人机上,还能提供丰富并廉价的信息;目标跟踪是指在低空飞行的无人机,通过计算相机获得的视觉信息来得到目标与无人机间的相对位移,进而自动调整无人机的姿态和位置,使被跟踪的地面移动目标保持在相机视野中心附近,实现无人机跟随目标运动完成跟踪任务,但是由于单目摄像机的技术限制,想要得到移动物体的三维坐标信息是非常困难的,因此,想要实现运动目标的跟踪需要有一种融合手机和无人机多传感参数的相对位姿估计方法。
发明内容
为了解决基于单目相机的无人机运动跟踪方法存在因图像退化带来的错检和漏检问题,可以通过APP将手机的IMU参数发送至无人机,无人机可以跟踪手机的IMU参数和自身的IMU参数计算两者之间的相对位姿,因为IMU会产生误差,可以通过图像信息对IMU误差进行校正,基于这样的思路,本发明提出一种基于手机和无人机多传感参数融合的无人机运动跟踪方法。
本发明解决其技术问题所采用的技术方案是:
一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,所述方法包括以下步骤:
1)设计Android应用程序,获取手机的加速度计和陀螺仪参数,并将IMU参数制成ROS信息格式,最后通过Wi-Fi发送至无人机端;
2)获取手机和无人机的IMU参数,建立IMU状态模型,误差状态模型,过程如下:首先需要对无人机和运动目标的运动分别进行建模,通过加速度计和陀螺仪的数据建立位置、速度、角度的状态空间模型,然后根据IMU的误差特性建立误差状态模型,最后将两者的状态模型联立,获取整个系统的状态方程;
3)根据获取到的图像提取运动目标;
4)使用多速率扩展卡尔曼滤波对相对位姿进行滤波。
进一步,所述步骤2)的步骤如下:
(2.1)建立IMU状态模型
IMU由三轴陀螺仪和三轴加速度计组成,陀螺仪获取到IMU自身的旋转角速度,加速度计获取到自身的线性加速度,由于测量误差的存在,给出IMU的测量模型:
ωmIω+bg+ng (1)
其中,ωm,am分别代表陀螺仪和加速度计的测量值,Iω为IMU坐标系下的实际角速度值,Ga为世界坐标系下的线加速度值,na,ng为测量高斯白噪声,ba,bg为测量零偏,定义为随机游走噪声,为世界坐标系到IMU坐标系的旋转矩阵,Gg则为当地的重力加速度在世界坐标系下的表示;
已知IMU的测量模型,得到IMU的状态向量:
其中,GP,GV分别代表世界坐标系下的IMU的位置和速度,则表示的是从世界坐标系到IMU坐标系的单位旋转四元数,使用的四元数符合Hamilton定义,根据运动学方程,得到IMU的连续时间状态:
其中Ga(t)=I GR(t)(am(t)-ba(t)-na(t))+Gg,nba,nbg是均值分别为σba和σbg的高斯白噪声,Ω(Iω(t))由式(9)所得:
其中,表示反对称矩阵,由式(6)得到:
在无人机运动跟踪过程中,需要时刻估计无人机与运动目标的相对位姿,由式(1)、(2)得到角速度和线加速度的估计,分别由式(7)、(8)给出:
再根据式(7)、(8)进行离散化得到[k,k+1]时刻的状态估计值:
其中,Δt=tk+1-tk代表相邻IMU采样时间间隔,值得注意的是,在计算式(9)时,假定在[k,k+1]时刻内角速度和加速度是线性变化的;四元数状态估计公式中代表四元数乘法,同时可以通过将离散化得到;
(2.2)建立IMU误差状态模型
在获取到IMU的状态估计后,通过IMU误差状态转移矩阵Fc描述误差在IMU状态估计和传播过程中产生的影响,IMU误差状态向量得到,如式(10)示:
代表旋转角度误差,已知四元数误差由一个小角度旋转来表示,如式(11)所示,
由此得将系统误差状态向量降维,得到15×1的误差状态向量,同时得到角度误差求解公式(12):
在确定系统误差状态向量后,根据IMU运动连续时间状态公式(4)和IMU状态估计公式(9)得出IMU误差状态连续时间转移矩阵:
式(13)中同时式(13)简化为:
将误差转移方程离散化,可以得到Fd和Gd,用于求IMU估计过程中的协方差,设协方差P的初始值为零,P的更新方程如式(15)所示:
Pk+1=Fd·Pk·Fd T+Gd·Q·Gd T (19)
式(15)中,Q为噪声矩阵,如式(16)所示:
包含无人机和运动目标的IMU状态,设无人机和运动目标的IMU误差状态分别为且设
则完整的系统误差状态向量为由式(19)给出,
其中Δn=nuav-ntar
再进一步,所述步骤1)的步骤为:
Android传感器数据获取时首先需要获取传感器管理对象(SensorManager),然后通过SensorManager定义传感器类型,然后注册监听器监听加速度传感器的数据变化,注册好监听器后,每次数据改变都会触发回调函数,可在回调函数中获取传感器数据,然后将数据制作成ROS信息格式,并通过Wi-Fi将消息发布,无人机端可订阅节点消息。
所述步骤3)中,根据获取到的图像提取运动目标的步骤如下:
(3.1)采集图像
基于四旋翼飞行器平台的Linux开发环境,使用机器人操作系统ROS订阅图像主题的方式获取图像的,相机驱动由ROS和OpenCV实现;
(3.2)图像预处理
采集到的彩色图像首先要进行灰度化,去除无用的图像彩色信息,这里使用的方法是求出每个像素点的R、G、B三个分量的加权平均值即为这个像素点的灰度值,这里不同通道的权值根据运行效率进行优化,这里避免浮点运算计算公式为:
Gray=(R×30+G×59+B×11+50)/100 (20)
其中Gray为像素点的灰度值,R、G、B分别为红、绿、蓝色通道的数值;
(3.3)ORB提取特征点
ORB也称为rBRIEF,提取出局部不变的特征,是对BRIEF算法的改进,BRIEF运算速度快,然而没有旋转不变性,并且对噪声比较敏感,ORB解决了BRIEF的这两个缺点;为了让算法能有旋转不变性,ORB首先利用Harris角点检测方法检测角点,之后利用亮度中心来测量旋转方向;假设一个角点的亮度从其中心偏移而来,则合成周围点的方向强度,计算角点的方向,定义如下强度矩阵:
mpq=∑x,yxpyqI(x,y) (21)
其中x,y为图像块的中心坐标,I(x,y)表示中心的灰度,xp,yq代表点到中心的偏移,则角点的方向表示为:
从角点中心构建这个向量,则这个图像块的方向角θ表示为:
θ=tan-1(m01,m10) (23)
由于ORB提取的关键点具有方向,因此利用ORB提取的特征点具有旋转不变性;
(3.4)特征描述符的匹配
通过RANSAC算法来去除误匹配点对,RANSAC反复对数据中的子集进行随机选取,并且将选取的子集假设为局内点,然后进行验证是否符合选取要求,RANSAC在特征点匹配中的过程如下所示:
3.4.1)从样本集中随机抽选RANSAC样本,即匹配点对;
3.4.2)根据匹配点对计算变换矩阵;
3.4.3)由样本集、误差度量函数以及矩阵,寻找所有满足当前模型的其他匹配点对,并标定为内点,返回该内点元素个数;
3.4.4)根据局内点个数判定该集合是否属于最优集合;
3.4.5)更新当前错误匹配率,如果大于设置的错误率阈值则重复RANSAC迭代过程。
所述步骤4)中,当无人机的相机没有进行量测输出时,系统认为图像缺失或者中断,滤波器只进行时间更新;但当相机有量测输出时,滤波器同时进行时间更新和量测更新。
本发明的技术构思为:随着四旋翼飞行器技术的成熟与稳定并且大量地在民用市场上推广,越来越多的人着眼于使用四旋翼飞行器更准确的跟踪目标,本发明就是在四旋翼飞行器实现运动目标跟踪的研究背景下提出的。
基于手机和无人机多传感参数融合的无人机运动跟踪方法主要包括:设计Android应用程序将手机IMU参数发送至无人机,根据手机和无人机的IMU参数构造状态模型和误差状态模型,进一步通过图像信息提取运动目标的坐标,最终通过图像测量信息校正IMU的误差,获取准确的相对位姿。
本方法的有益效果主要表现在:针对基于相机的无人机运动跟踪方法存在因图像退化带来的错检和漏检问题,提出一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,大大提高了跟踪的精度和鲁棒性。
附图说明
图1为一种基于手机和无人机多传感器参数融合的无人机运动跟踪方法概括图;
图2为Android应用程序获取IMU数据并发送的流程图。
具体实施方式
下面结合附图对本发明进一步描述:
参照图1和图2,一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,包括以下步骤:
1)设计Android应用程序,获取手机的加速度计和陀螺仪参数,并将IMU参数制成ROS信息格式,最后通过Wi-Fi发送至无人机端;
Android传感器数据获取时首先需要获取传感器管理对象(SensorManager),然后通过SensorManager定义传感器类型(以加速度传感器为例),然后注册监听器监听加速度传感器的数据变化,注册好监听器后,每次数据改变都会触发回调函数,可在回调函数中获取传感器数据,然后将数据制作成ROS信息格式,并通过Wi-Fi将消息发布,无人机端可订阅节点消息。
2)获取手机和无人机的IMU参数,建立IMU状态模型,误差状态模型,过程如下:
(2.1)建立IMU状态模型
IMU由三轴陀螺仪和三轴加速度计组成,陀螺仪可以获取到IMU自身的旋转角速度,加速度计则可以获取到自身的线性加速度,由于测量误差的存在,给出IMU的测量模型:
ωmIω+bg+ng (1)
其中,ωm,am分别代表陀螺仪和加速度计的测量值,Iω为IMU坐标系下的实际角速度值,Ga为世界坐标系下的线加速度值,na,ng为测量高斯白噪声,ba,bg为测量零偏,定义为随机游走噪声,为世界坐标系到IMU坐标系的旋转矩阵,Gg则为当地的重力加速度在世界坐标系下的表示;
已知IMU的测量模型,可以得到IMU的状态向量:
其中,GP,GV分别代表世界坐标系下的IMU的位置和速度,则表示的是从世界坐标系到IMU坐标系的单位旋转四元数,使用的四元数符合Hamilton定义,根据运动学方程,可以得到IMU的连续时间状态:
其中nba,nbg是均值分别为σba和σbg的高斯白噪声,Ω(Iω(t))由式(5)所得:
其中,表示反对称矩阵,由式(6)得到:
在无人机运动跟踪过程中,需要时刻估计无人机与运动目标的相对位姿,由式(1)、(2)到角速度和线加速度的估计,不考虑测量高斯白噪声n,分别由式(7)、(8)给出:
再根据式(7)、(8)进行离散化(雅各比矩阵)得到[k,k+1]时刻的状态估计值:
其中,Δt=tk+1-tk代表相邻IMU采样时间间隔,值得注意的是,在计算式(9)时,假定在[k,k+1]时刻内角速度和加速度是线性变化的。四元数状态估计公式中代表四元数乘法,同时可以通过将离散化得到;
(2.2)建立IMU误差状态模型
在获取到IMU的状态估计后,通过IMU误差状态转移矩阵Fc描述误差在IMU状态估计和传播过程中产生的影响,IMU误差状态向量得到,如式(10)示:
代表旋转角度误差,已知四元数误差由一个小角度旋转来表示,如式(11)所示,
由此可得将系统误差状态向量降维,得到15×1的误差状态向量,同时得到角度误差求解公式(12):
在确定系统误差状态向量后,根据IMU运动连续时间状态公式(4)和IMU状态估计公式(9)得出IMU误差状态连续时间转移矩阵:
式(13)中同时式(13)简化为:
将误差转移方程离散化,得到Fd和Gd,用于求IMU估计过程中的协方差,设协方差P的初始值为零,P的更新方程如式(15)所示:
Pk+1=Fd·Pk·Fd T+Gd·Q·Gd T (15)式(15)中,Q为噪声矩阵,如式(16)所示:
包含无人机和运动目标的IMU状态,这里设无人机和运动目标的IMU误差状态分别为且设
则完整的系统误差状态向量为由式(19)给出,
其中Δn=nuav-ntar
3)根据获取到的图像提取运动目标,过程如下:
(3.1)采集图像
一般而言,采集图像的方法有非常多中,本发明是基于四旋翼飞行器平台的Linux开发环境,使用机器人操作系统ROS订阅图像主题的方式获取图像的,相机驱动由ROS和openCV实现;
(3.2)图像预处理
由于本发明所使用的特征提取方法基于的是图像的纹理光强以及梯度信息,因此采集到的彩色图像首先要进行灰度化,去除无用的图像彩色信息,这里使用的方法是求出每个像素点的R、G、B三个分量的加权平均值即为这个像素点的灰度值,这里不同通道的权值可以根据运行效率进行优化,这里避免浮点运算计算公式为:
Gray=(R×30+G×59+B×11+50)/100 (20)
其中Gray为像素点的灰度值,R、G、B分别为红、绿、蓝色通道的数值。
(3.3)ORB提取特征点
ORB也称为rBRIEF,提取出局部不变的特征,是对BRIEF算法的改进,BRIEF运算速度快,然而没有旋转不变性,并且对噪声比较敏感,ORB解决了BRIEF的这两个缺点;为了让算法能有旋转不变性,ORB首先利用Harris角点检测方法检测角点,之后利用亮度中心(Intensity Centroid)来测量旋转方向;假设一个角点的亮度从其中心偏移而来,则合成周围点的方向强度,可以计算角点的方向,定义如下强度矩阵:
mpq=∑x,yxpyqI(x,y) (21)
其中x,y为图像块的中心坐标,I(x,y)表示中心的灰度,xp,yq代表点到中心的偏移,则角点的方向可以表示为:
从角点中心构建这个向量,则这个图像块的方向角θ可以表示为:
θ=tan-1(m01,m10) (23)
由于ORB提取的关键点具有方向,因此利用ORB提取的特征点具有旋转不变性;
(3.4)特征描述符的匹配
ORB算法的特征提取很快,但在实际情况下进行特征匹配时,匹配的效果并不会特别好,尤其当视角发生比较大的变化或者出现之前图像中没有出现的区域,就很容易产生误匹配,如何能够解决这个问题,这就需要通过RANSAC算法来去除误匹配点对。
RANSAC是一种不确定算法,它有一定概率获得合理的模型,而提高迭代次数可以提高这个概率。RANSAC有观测数据、参数化模型和初始参数构成,其观测数据分为满足预设模型的局内点(inlier)以及模型误差超过阈值的局外点(outlier)两类。
RANSAC反复对数据中的子集进行随机选取,并且将选取的子集假设为局内点,然后进行验证是否符合选取要求。RANSAC在特征点匹配中的过程如下所示:
3.4.1)从样本集中随机抽选RANSAC样本(匹配点对);
3.4.2)根据匹配点对计算变换矩阵;
3.4.3)由样本集、误差度量函数以及矩阵,寻找所有满足当前模型的其他匹配点对,并标定为内点(inlier),返回该内点元素个数;
3.4.4)根据局内点个数判定该集合是否属于最优集合;
3.4.5)更新当前错误匹配率,如果大于设置的错误率阈值则重复RANSAC迭代过程。
4)使用多速率扩展卡尔曼滤波对相对位姿进行滤波
常规的扩展卡尔曼滤波包括时间更新和量测更新两个更新过程,并且在一个滤波周期内是一一对应的关系,但多速率扩展卡尔曼滤波器的更新方式不同于常规的方法。以一个量测周期内的更新过程为例,当无人机的相机没有进行量测输出时,系统认为图像缺失或者中断,滤波器只进行时间更新;但当相机有量测输出时,滤波器同时进行时间更新和量测更新。这样的处理方式能够提高数据的更新率,减少了IMU信息的浪费,同时相比于基于图像的运动跟踪方法丢失目标的情况,系统更具有鲁棒性。

Claims (5)

1.一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,其特征在于,所述方法包括以下步骤:
1)设计Android应用程序,获取手机的加速度计和陀螺仪参数,并将IMU参数制成ROS信息格式,最后通过Wi-Fi发送至无人机端;
2)获取手机和无人机的IMU参数,建立IMU状态模型,误差状态模型,过程如下:首先需要对无人机和运动目标的运动分别进行建模,通过加速度计和陀螺仪的数据建立位置、速度、角度的状态空间模型,然后根据IMU的误差特性建立误差状态模型,最后将两者的状态模型联立,获取整个系统的状态方程;
3)根据获取到的图像提取运动目标;
4)使用多速率扩展卡尔曼滤波对相对位姿进行滤波。
2.如权利要求1所述的一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,其特征在于:所述步骤2)的步骤如下:
(2.1)建立IMU状态模型
IMU由三轴陀螺仪和三轴加速度计组成,陀螺仪获取到IMU自身的旋转角速度,加速度计获取到自身的线性加速度,由于测量误差的存在,给出IMU的测量模型:
ωmIω+bg+ng (1)
其中,ωm,am分别代表陀螺仪和加速度计的测量值,Iω为IMU坐标系下的实际角速度值,Ga为世界坐标系下的线加速度值,na,ng为测量高斯白噪声,ba,bg为测量零偏,定义为随机游走噪声,为世界坐标系到IMU坐标系的旋转矩阵,Gg则为当地的重力加速度在世界坐标系下的表示;
已知IMU的测量模型,得到IMU的状态向量:
其中,GP,GV分别代表世界坐标系下的IMU的位置和速度,则表示的是从世界坐标系到IMU坐标系的单位旋转四元数,使用的四元数符合Hamilton定义,根据运动学方程,得到IMU的连续时间状态:
其中nba,nbg是均值分别为σba和σbg的高斯白噪声,Ω(Iω(t))由式(9)所得:
其中,表示反对称矩阵,由式(6)得到:
在无人机运动跟踪过程中,需要时刻估计无人机与运动目标的相对位姿,由式(1)、(2)得到角速度和线加速度的估计,分别由式(7)、(8)给出:
再根据式(7)、(8)进行离散化得到[k,k+1]时刻的状态估计值:
其中,Δt=tk+1-tk代表相邻IMU采样时间间隔,值得注意的是,在计算式(9)时,假定在[k,k+1]时刻内角速度和加速度是线性变化的;
四元数状态估计公式中代表四元数乘法,同时可以通过将离散化得到;
(2.2)建立IMU误差状态模型
在获取到IMU的状态估计后,通过IMU误差状态转移矩阵Fc描述误差在IMU状态估计和传播过程中产生的影响,IMU误差状态向量得到,如式(10)示:
代表旋转角度误差,已知四元数误差由一个小角度旋转来表示,如式(11)所示,
由此得将系统误差状态向量降维,得到15×1的误差状态向量,同时得到角度误差求解公式(12):
在确定系统误差状态向量后,根据IMU运动连续时间状态公式(4)和IMU状态估计公式(9)得出IMU误差状态连续时间转移矩阵:
式(13)中同时式(13)简化为:
将误差转移方程离散化,可以得到Fd和Gd,用于求IMU估计过程中的协方差,设协方差P的初始值为零,P的更新方程如式(15)所示:
Pk+1=Fd·Pk·Fd T+Gd·Q·Gd T (19)
式(15)中,Q为噪声矩阵,如式(16)所示:
包含无人机和运动目标的IMU状态,设无人机和运动目标的IMU误差状态分别为且设
则完整的系统误差状态向量为由式(19)给出,
其中Δn=nuav-ntar
3.如权利要求1或2所述的一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,其特征在于:所述步骤1)的步骤为:
Android传感器数据获取时首先需要获取传感器管理对象(SensorManager),然后通过SensorManager定义传感器类型,然后注册监听器监听加速度传感器的数据变化,注册好监听器后,每次数据改变都会触发回调函数,可在回调函数中获取传感器数据,然后将数据制作成ROS信息格式,并通过Wi-Fi将消息发布,无人机端可订阅节点消息。
4.如权利要求1或2所述的一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,其特征在于:所述步骤3)中,根据获取到的图像提取运动目标的步骤如下:
(3.1)采集图像
基于四旋翼飞行器平台的Linux开发环境,使用机器人操作系统ROS订阅图像主题的方式获取图像的,相机驱动由ROS和OpenCV实现;
(3.2)图像预处理
采集到的彩色图像首先要进行灰度化,去除无用的图像彩色信息,这里使用的方法是求出每个像素点的R、G、B三个分量的加权平均值即为这个像素点的灰度值,这里不同通道的权值根据运行效率进行优化,这里避免浮点运算计算公式为:
Gray=(R×30+G×59+B×11+50)/100 (20)
其中Gray为像素点的灰度值,R、G、B分别为红、绿、蓝色通道的数值;
(3.3)ORB提取特征点
ORB也称为rBRIEF,提取出局部不变的特征,是对BRIEF算法的改进,BRIEF运算速度快,然而没有旋转不变性,并且对噪声比较敏感,ORB解决了BRIEF的这两个缺点;为了让算法能有旋转不变性,ORB首先利用Harris角点检测方法检测角点,之后利用亮度中心来测量旋转方向;假设一个角点的亮度从其中心偏移而来,则合成周围点的方向强度,计算角点的方向,定义如下强度矩阵:
mpq=∑x,yxpyqI(x,y) (21)
其中x,y为图像块的中心坐标,I(x,y)表示中心的灰度,xp,yq代表点到中心的偏移,则角点的方向表示为:
从角点中心构建这个向量,则这个图像块的方向角θ表示为:
θ=tan-1(m01,m10) (23)
由于ORB提取的关键点具有方向,因此利用ORB提取的特征点具有旋转不变性;
(3.4)特征描述符的匹配
通过RANSAC算法来去除误匹配点对,RANSAC反复对数据中的子集进行随机选取,并且将选取的子集假设为局内点,然后进行验证是否符合选取要求,RANSAC在特征点匹配中的过程如下所示:
3.4.1)从样本集中随机抽选RANSAC样本,即匹配点对;
3.4.2)根据匹配点对计算变换矩阵;
3.4.3)由样本集、误差度量函数以及矩阵,寻找所有满足当前模型的其他匹配点对,并标定为内点,返回该内点元素个数;
3.4.4)根据局内点个数判定该集合是否属于最优集合;
3.4.5)更新当前错误匹配率,如果大于设置的错误率阈值则重复RANSAC迭代过程。
5.如权利要求1或2所述的一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,其特征在于:所述步骤4)中,当无人机的相机没有进行量测输出时,系统认为图像缺失或者中断,滤波器只进行时间更新;但当相机有量测输出时,滤波器同时进行时间更新和量测更新。
CN201810323707.4A 2018-04-12 2018-04-12 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法 Active CN108759826B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810323707.4A CN108759826B (zh) 2018-04-12 2018-04-12 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810323707.4A CN108759826B (zh) 2018-04-12 2018-04-12 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法

Publications (2)

Publication Number Publication Date
CN108759826A true CN108759826A (zh) 2018-11-06
CN108759826B CN108759826B (zh) 2020-10-27

Family

ID=63981569

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810323707.4A Active CN108759826B (zh) 2018-04-12 2018-04-12 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法

Country Status (1)

Country Link
CN (1) CN108759826B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110106755A (zh) * 2019-04-04 2019-08-09 武汉大学 利用姿态重构铁轨几何形态的高铁轨道不平顺性检测方法
CN110887506A (zh) * 2019-10-14 2020-03-17 交通运输部水运科学研究所 一种受海浪影响的惯性传感器的运动幅度检测方法及系统
CN110887463A (zh) * 2019-10-14 2020-03-17 交通运输部水运科学研究所 一种基于惯性传感器的海浪起伏幅度检测方法及系统
CN111197984A (zh) * 2020-01-15 2020-05-26 重庆邮电大学 一种基于环境约束下的视觉-惯性运动估计方法
CN111949123A (zh) * 2020-07-01 2020-11-17 青岛小鸟看看科技有限公司 多传感器手柄控制器混合追踪方法及装置
CN113349931A (zh) * 2021-06-18 2021-09-07 云南微乐数字医疗科技有限公司 一种高精度手术导航系统的病灶配准方法
CN113984051A (zh) * 2020-04-30 2022-01-28 深圳市瑞立视多媒体科技有限公司 Imu与刚体的位姿融合方法、装置、设备及存储介质
CN116192571A (zh) * 2023-02-06 2023-05-30 中国人民解放军火箭军工程大学 一种波束抖动效应下无人机isac信道估计方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101109640A (zh) * 2006-07-19 2008-01-23 北京航空航天大学 基于视觉的无人驾驶飞机自主着陆导航系统
CN102854887A (zh) * 2012-09-06 2013-01-02 北京工业大学 一种无人机航迹规划和远程同步操控方法
CN103838244A (zh) * 2014-03-20 2014-06-04 湖南大学 基于四轴飞行器的便携式目标跟踪方法及系统
CN105447459A (zh) * 2015-11-18 2016-03-30 上海海事大学 一种无人机自动检测目标和跟踪方法
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
CN106094865A (zh) * 2016-07-15 2016-11-09 陈昊 无人飞行器拍摄系统及其拍摄方法
CN106339006A (zh) * 2016-09-09 2017-01-18 腾讯科技(深圳)有限公司 一种飞行器的目标跟踪方法和装置
CN106570820A (zh) * 2016-10-18 2017-04-19 浙江工业大学 一种基于四旋翼无人机的单目视觉三维特征提取方法
EP3268278A4 (en) * 2015-03-12 2019-07-31 Nightingale Intelligent Systems AUTOMATED DRONE SYSTEMS

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101109640A (zh) * 2006-07-19 2008-01-23 北京航空航天大学 基于视觉的无人驾驶飞机自主着陆导航系统
CN102854887A (zh) * 2012-09-06 2013-01-02 北京工业大学 一种无人机航迹规划和远程同步操控方法
CN103838244A (zh) * 2014-03-20 2014-06-04 湖南大学 基于四轴飞行器的便携式目标跟踪方法及系统
EP3268278A4 (en) * 2015-03-12 2019-07-31 Nightingale Intelligent Systems AUTOMATED DRONE SYSTEMS
CN105447459A (zh) * 2015-11-18 2016-03-30 上海海事大学 一种无人机自动检测目标和跟踪方法
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
CN106094865A (zh) * 2016-07-15 2016-11-09 陈昊 无人飞行器拍摄系统及其拍摄方法
CN106339006A (zh) * 2016-09-09 2017-01-18 腾讯科技(深圳)有限公司 一种飞行器的目标跟踪方法和装置
CN106570820A (zh) * 2016-10-18 2017-04-19 浙江工业大学 一种基于四旋翼无人机的单目视觉三维特征提取方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张腾: "基于智能手机运动感知的小型无人飞行器姿态控制", 《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》 *
程思源 等: "用手机控制的四旋翼飞行", 《第五届全国大学生创新创业年会论文集》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110106755B (zh) * 2019-04-04 2020-11-03 武汉大学 利用姿态重构铁轨几何形态的高铁轨道不平顺性检测方法
CN110106755A (zh) * 2019-04-04 2019-08-09 武汉大学 利用姿态重构铁轨几何形态的高铁轨道不平顺性检测方法
CN110887506A (zh) * 2019-10-14 2020-03-17 交通运输部水运科学研究所 一种受海浪影响的惯性传感器的运动幅度检测方法及系统
CN110887463A (zh) * 2019-10-14 2020-03-17 交通运输部水运科学研究所 一种基于惯性传感器的海浪起伏幅度检测方法及系统
CN111197984A (zh) * 2020-01-15 2020-05-26 重庆邮电大学 一种基于环境约束下的视觉-惯性运动估计方法
CN113984051A (zh) * 2020-04-30 2022-01-28 深圳市瑞立视多媒体科技有限公司 Imu与刚体的位姿融合方法、装置、设备及存储介质
CN111949123B (zh) * 2020-07-01 2023-08-08 青岛小鸟看看科技有限公司 多传感器手柄控制器混合追踪方法及装置
CN111949123A (zh) * 2020-07-01 2020-11-17 青岛小鸟看看科技有限公司 多传感器手柄控制器混合追踪方法及装置
US12008173B2 (en) 2020-07-01 2024-06-11 Qingdao Pico Technology Co., Ltd. Multi-sensor handle controller hybrid tracking method and device
CN113349931A (zh) * 2021-06-18 2021-09-07 云南微乐数字医疗科技有限公司 一种高精度手术导航系统的病灶配准方法
CN113349931B (zh) * 2021-06-18 2024-06-04 云南微乐数字医疗科技有限公司 一种高精度手术导航系统的病灶配准方法
CN116192571A (zh) * 2023-02-06 2023-05-30 中国人民解放军火箭军工程大学 一种波束抖动效应下无人机isac信道估计方法
CN116192571B (zh) * 2023-02-06 2024-03-08 中国人民解放军火箭军工程大学 一种波束抖动效应下无人机isac信道估计方法

Also Published As

Publication number Publication date
CN108759826B (zh) 2020-10-27

Similar Documents

Publication Publication Date Title
CN106570820B (zh) 一种基于四旋翼无人机的单目视觉三维特征提取方法
CN108759826A (zh) 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法
CN109307508B (zh) 一种基于多关键帧的全景惯导slam方法
CN108711166A (zh) 一种基于四旋翼无人机的单目相机尺度估计方法
CN110058602A (zh) 基于深度视觉的多旋翼无人机自主定位方法
CN109029433A (zh) 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法
Grabe et al. Robust optical-flow based self-motion estimation for a quadrotor UAV
CN109949361A (zh) 一种基于单目视觉定位的旋翼无人机姿态估计方法
CN107357286A (zh) 视觉定位导航装置及其方法
WO2021223124A1 (zh) 位置信息获取方法、设备及存储介质
Oh et al. Indoor UAV control using multi-camera visual feedback
CN110675453B (zh) 一种已知场景中运动目标的自定位方法
Eynard et al. Real time UAV altitude, attitude and motion estimation from hybrid stereovision
CN111288989A (zh) 一种小型无人机视觉定位方法
CN113066129A (zh) 基于动态环境下的目标检测的视觉定位与建图系统
Zheng et al. Robust and accurate monocular visual navigation combining IMU for a quadrotor
Williams et al. Feature and pose constrained visual aided inertial navigation for computationally constrained aerial vehicles
Tang et al. Onboard detection-tracking-localization
Deng et al. Visual–inertial estimation of velocity for multicopters based on vision motion constraint
Wang et al. Monocular vision and IMU based navigation for a small unmanned helicopter
CN116989772B (zh) 一种空地多模态多智能体协同定位与建图方法
Li et al. Multiple RGB-D sensor-based 3-D reconstruction and localization of indoor environment for mini MAV
Rudol Increasing autonomy of unmanned aircraft systems through the use of imaging sensors
CN112945233A (zh) 一种全局无漂移的自主机器人同时定位与地图构建方法
Meier et al. Detection and characterization of moving objects with aerial vehicles using inertial-optical flow

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant