CN108961311B - 一种双模式的旋翼飞行器目标跟踪方法 - Google Patents

一种双模式的旋翼飞行器目标跟踪方法 Download PDF

Info

Publication number
CN108961311B
CN108961311B CN201810639869.9A CN201810639869A CN108961311B CN 108961311 B CN108961311 B CN 108961311B CN 201810639869 A CN201810639869 A CN 201810639869A CN 108961311 B CN108961311 B CN 108961311B
Authority
CN
China
Prior art keywords
target
value
tracking
image
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810639869.9A
Other languages
English (en)
Other versions
CN108961311A (zh
Inventor
田彦涛
张磊
石屹然
付春阳
黄海洋
洪伟
卢辉遒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201810639869.9A priority Critical patent/CN108961311B/zh
Publication of CN108961311A publication Critical patent/CN108961311A/zh
Application granted granted Critical
Publication of CN108961311B publication Critical patent/CN108961311B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

本发明公开了一种双模式的旋翼飞行器目标跟踪方法。本发明所设计的系统具有两种跟踪模式,第一种跟踪模式是基于电子标签的追踪模式,在这种模式下,旋翼飞行器能够从较远的范围获取到目标的信息,从而执行跟踪任务,第二种跟踪模式是是基于视觉的追踪模式,旋翼飞行器通过视觉系统获取目标的位置信息,然后通过图像中目标的位置信息计算出目标相对于旋翼飞行器的距离,从而更精准地完成追踪任务。这种双模式跟踪方法与系统采用的目标跟踪算法具有很好的鲁棒性,对于飞行器飞行过程中所产生的抖动以及背景变化具有很好的抵抗效果。通过两种跟踪模式的配合使用,提高了该系统在飞行器目标跟踪领域的实用性。

Description

一种双模式的旋翼飞行器目标跟踪方法
技术领域
本发明涉及旋翼飞行器地面机动目标跟踪领域,具体涉及一种双模式的旋翼飞行器目标跟踪方法。
技术背景
旋翼飞行器是无人飞行器(UAV)的一种,目前已经被广泛地应用在侦察、抢险救灾以及航拍等等任务中。而无人机的智能化是无人机的重要发展方向,无论是在抗灾救援的第一线,无人机到达救援人员难以到达的地方,率先开始搜救任务;还是在滑雪速降的雪道上,无人机跟踪拍摄,记录下完整的过程,无人机都能够更为自主地完成这些困难的任务。所以,本课题对于无人机移动目标追踪问题的研究具有很重要的现实意义。
目前的旋翼飞行器目标跟踪方法的研究,主要集中在基于图像的方面,但是基于图像的追踪,目标必须处在相机的视野内才能够开启追踪,具有应用范围较为狭窄这样的缺陷。如专利CN201710631781.8公布了一种长时稳定无人机目标跟踪方法,但是并没有考虑到目标丢失以及目标不在视野范围内的情况。
而对于图像追踪算法部分,大部分的视觉追踪算法都是在相机静止条件下进行运行,而对于旋翼飞行器的目标跟踪,相机会随时出现晃动,并且还会出现各种的干扰,这种情况下的图像跟踪就会非常困难,对于算法的鲁棒性提出了很高的要求。如CN201710322060.9公布的无人机目标跟踪方法就没有考虑飞行过程中出现背景干扰以及相机晃动带来的问题。
发明内容
为解决现有技术中旋翼飞行器地面机动目标跟踪范围小,且跟踪算法鲁棒性弱的问题,本发明提供一种双模式跟踪的方法,旋翼飞行器在距离目标较远时就能够开始追踪,当目标进入到飞行器所携带的相机载荷的视野范围内时,启用视觉追踪算法,由于算法具有较强的鲁棒性,能够完成很高效的追踪。
为了达到上述目的,本发明采用如下技术方案:
第一步,当旋翼式飞行器在远处开始目标追踪时,开启第一种跟踪模式,通过地面机动目标所携带的电子标签中的GPS定位模块对机动目标的位置进行采集,通过电子标签中的数据处理模块对定位信息进行处理,转化为绝对的经纬度值,再通过无线传输模块将位置信息发送给多旋翼飞行器。
第二步,多旋翼飞行器通过无线接收模块接收到电子标签传送来的地面机动目标的位置信息U(LonU,LatU),然后在机载信息处理模块中,将位置信息与自身所携带的GPS定位模块解算所得到的经纬度值T(LonT,LatT)进行比对做差。
其中,LonU为目标的经度值,LatU为目标的纬度值,LonT为多旋翼飞行器的经度值,LatT为多旋翼飞行器的纬度值。
第三步,将上一步中最后得到的经纬度差值进行转换计算,最后转换为实际的距离值,转换计算公式为:
Figure BDA0001702161390000021
Figure BDA0001702161390000022
将计算所得距离值作为旋翼飞行器的输入值x和y,控制旋翼飞行器朝向目标位置飞行;
第四步,在追踪过程中,相机载荷一直采集图像,并将图像同步传输给机载图像处理模块和地面PC端,通过地面PC端进行人为检查目标是否进入相机视野范围内;
第五步,在目标进入相机视野范围内后,人为通过地面PC端将地面机动目标在图像中框选出来,选框操作完成后,开启第二种跟踪模式。
第六步,在选择框所在的第一帧图像中,在选择框所在的第一帧图像中,将目标区域的数据进行一个循环移位操作,设目标区域中的一个图像单元为X,将其分别向下以及向右平移a和b个单位,从而得到如下移位操作过的的X1
X1=PaXPb
其中,
Figure BDA0001702161390000023
通过循环移位操作,选择目标区域周围的区域,从而得到搜索区域,这个区域也就是下一帧图像所要进行搜索的范围,a和b根据图像分辨率取值,最终选取目标周围2.5倍的区域作为搜索区域;
然后要对当前帧图像中目标区域进行HOG特征的提取,提取到的特征矩阵为x1,并对特征矩阵x1进行离散傅里叶变换,获得目标在离散傅里叶域下的外观模型x′t
x′t=F(x1)
其中,F(x1)是对x1进行离散傅里叶变换。
计算目标外观模型的核自相关性K,K=K(x′t,x′t),计算过程中所使用的核函数为高斯核函数,具体形式为:
Figure BDA0001702161390000031
其中
Figure BDA0001702161390000032
Figure BDA0001702161390000033
的共轭矩阵,
Figure BDA0001702161390000034
是x′t经过离散傅里叶变换得到的,F-1是离散傅里叶逆变换,σ2是高斯核带宽,取值为0.5。
利用非线性回归模型,计算滤波参数
α′t=(K+λI)-1y
其中,K=κ(x′t,x′t),λ是正则化参数,用来防止函数过拟合,y是由对应每个样本的回归值yi(i=1,2,3,4,5,6……)组成的列向量,yi是预先给定的样本回归目标值,是将预先选定的目标位置作为我们的样本回归目标值,来作为回归计算的比较值,也就是上一帧图像中目标所在位置,I是单位矩阵;
更新目标的位置以及滤波参数:
Figure BDA0001702161390000035
其中,αt为第t帧图像所对应的时刻的滤波函数,xt为第t帧图像所对应的时刻的目标位置,β是预设的学习更新参数,决定着对于上一时刻数据的依赖程度,β的取值范围是[0,1],通常取值0.02,αt-1为上一时刻的滤波参数,xt-1为上一时刻目标位置。所述上一时刻即上一帧图像所对应的时刻;对于第一帧图像所对应的来说,α1根据人为选择的目标区域位置然后带入滤波参数计算公式所得到;xt为人为选择的目标区域位置;
当下一帧图像进入计算时,通过前一帧图像所在位置确定的搜索区域,在区域内提取HOG特征,提取到的特征矩阵为x2,对得到特征矩阵x2进行离散傅里叶变换,获得当前时刻目标的外观模型Zt
Zt=F(x2)
其中,F(x2)是对x2进行离散傅里叶变换。
计算当前时刻目标的外观模型Zt与上一时刻外观模型x′t之间的核相关性Kxz=κ(x′t,Zt)。
Figure BDA0001702161390000036
其中,
Figure BDA0001702161390000037
Figure BDA0001702161390000038
的共轭矩阵,
Figure BDA0001702161390000039
是Zt经过离散傅里叶变换得到的,F-1是离散傅里叶逆变换,σ是高斯核带宽,取值为0.5。
根据之前所得到的滤波参数计算如下的响应回归函数:
Figure BDA00017021613900000310
其中,
Figure BDA00017021613900000311
是核相关性Kxz矩阵的第一行元素,F(x)是对x进行离散傅里叶变换。
当前帧目标位置设定为响应函数值中幅值最大的区域,然后根据当前位置,将该位置作为目标中心,重新将目标区域周围选取为下一帧的搜索区域,并且更新滤波参数,然后重复之前的流程。
当目标运动超出图像采集模块视野范围外时,切换到第一种跟踪模式进行跟踪,然后当目标再次进入图像采集模块视野范围内时,重新进行选框操作,再执行第二种跟踪模式。
附图说明
图1是旋翼飞行器地面机动目标跟踪系统的整体结构图;
图2是第一种跟踪模式下的旋翼飞行器地面机动目标跟踪结果图;
图3是视觉追踪算法的算法流程图
图4(a)~图4(i)是第二种跟踪模式下的旋翼飞行器地面机动目标跟踪结果图。
具体实施方案
以下进一步说明本发明的具体内容和其实施方式:
如图1所示,本发明提供的旋翼飞行器地面机动目标跟踪系统包括以下四个主要部分,电子标签,旋翼无人飞行器,PC机以及遥控器。
其中,电子标签包括了无线传输模块1,定位信息处理单元以及GPS;旋翼飞行器上主要搭载了机载信息处理模块,图像采集模块,图像处理模块以及飞行控制模块;PC机上通过无线传输模块3通过无线传输模块4与图像处理模块连接,从而实时与地面PC端传输图像信息;遥控器与飞行控制模块直接相连,遥控器是最高控制权,保证飞行的稳定性。
第一步,当旋翼飞行器在远处开始目标追踪时,开启第一种跟踪模式,通过地面机动目标所携带的电子标签中的GPS定位模块对机动目标的位置进行采集,通过电子标签中的数据处理模块对定位信息进行处理,转化为绝对的经纬度值,再通过无线传输模块1将位置信息发送给多旋翼飞行器。
第二步,多旋翼飞行器通过无线接收模块2接收到电子标签传送来的地面机动目标的位置信息U(LonU,LatU),然后在机载信息处理模块中,将位置信息与自身所携带的GPS定位模块解算所得到的经纬度值T(LonT,LatT)进行比对做差。
其中,LonU为目标的经度值,LatU为目标的纬度值,LonT为多旋翼飞行器的经度值,LatT为多旋翼飞行器的纬度值。
第三步,将上一步中最后得到的经纬度差值进行转换计算,最后转换为实际的距离值,转换计算公式为:
Figure BDA0001702161390000051
Figure BDA0001702161390000052
将计算所得距离值作为旋翼飞行器的输入值x和y,控制旋翼飞行器朝向目标位置飞行;其中第一种跟踪模式下的地面移动目标跟结果如图2所示。
第四步,在追踪过程中,旋翼飞行器上所搭载的图像采集模块也会一直采集图像,并将图像传输给图像处理模块,另一方面,通过无线传输模块4传输给地面PC端,PC端通过无线传输模块3进行接收,而地面监控人员通过人为检查目标是否进入图像采集模块视野范围内。
第五步,在目标进入图像采集模块视野范围内后,人为通过PC端将地面机动目标在图像中框选出来,如图4(a)所示,选框操作完成后,开启第二种跟踪模式。
目标跟踪算法流程参考图3所示。
第六步,在选择框所在的第一帧图像中,在选择框所在的第一帧图像中,将目标区域的数据进行一个循环移位操作,设目标区域中的一个图像单元为X,将其分别向下以及向右平移a和b个单位,从而得到如下移位操作过的的X1
X1=PaXPb
其中,
Figure BDA0001702161390000053
通过循环移位操作,选择目标区域周围的区域,从而得到搜索区域,这个区域也就是下一帧图像所要进行搜索的范围,a和b根据图像分辨率取值,最终选取目标周围2.5倍的区域作为搜索区域;如图4(a)所示,白色框为目标所在位置,黑色框为搜索区域。并且,将选定的目标区域作为正样本,搜索区域内的其他区域作为负样本。
然后要对当前帧图像中目标区域进行HOG特征的提取,提取到的特征矩阵为x1,并对特征矩阵x1进行离散傅里叶变换,获得目标在离散傅里叶域下的外观模型x′t
x′t=F(x1)
其中,F(x1)是对x1进行离散傅里叶变换。
计算目标外观模型的核自相关性K,K=κ(x′t,x′t),计算过程中所使用的核函数为高斯核函数,具体形式为:
Figure BDA0001702161390000061
其中
Figure BDA0001702161390000062
Figure BDA0001702161390000063
的共轭矩阵,
Figure BDA0001702161390000064
是x′t经过离散傅里叶变换得到的,F-1是离散傅里叶逆变换,σ2是高斯核带宽,取值为0.5。
利用非线性回归模型,计算滤波参数
α′t=(K+λI)-1y
其中,K=κ(x′t,x′t),λ是正则化参数,用来防止函数过拟合,y是由对应每个样本的回归值yi(i=1,2,3,4,5,6……)组成的列向量,yi是预先给定的样本回归目标值,是将预先选定的目标位置作为我们的样本回归目标值,来作为回归计算的比较值,也就是上一帧图像中目标所在位置,I是单位矩阵;
更新目标的位置以及滤波参数:
Figure BDA0001702161390000065
其中,αt为第t帧图像所对应的时刻的滤波函数,xt为第t帧图像所对应的时刻的目标位置,β是预设的学习更新参数,决定着对于上一时刻数据的依赖程度,β的取值范围是[0,1],通常取值0.02,αt-1为上一时刻的滤波参数,xt-1为上一时刻目标位置。所述上一时刻即上一帧图像所对应的时刻;对于第一帧图像所对应的来说,α1根据人为选择的目标区域位置然后带入滤波参数计算公式所得到;xt为人为选择的目标区域位置;
当下一帧图像进入计算时,通过前一帧图像所在位置确定的搜索区域,在区域内提取HOG特征,提取到的特征矩阵为x2,对得到特征矩阵x2进行离散傅里叶变换,获得当前时刻目标的外观模型Zt
Zt=F(x2)
其中,F(x2)是对x2进行离散傅里叶变换。
计算当前时刻目标的外观模型Zt与上一时刻外观模型x′t之间的核相关性Kxz=κ(x′t,Zt)。
Figure BDA0001702161390000066
其中,
Figure BDA0001702161390000067
Figure BDA0001702161390000068
的共轭矩阵,
Figure BDA0001702161390000069
是Zt经过离散傅里叶变换得到的,F-1是离散傅里叶逆变换,σ是高斯核带宽,取值为0.5。
根据之前所得到的滤波参数计算如下的响应回归函数:
Figure BDA00017021613900000610
其中,
Figure BDA0001702161390000071
是核相关性Kxz矩阵的第一行元素,F(x)是对x进行离散傅里叶变换。
当前帧目标位置设定为响应函数值中幅值最大的区域,然后根据当前位置,将该位置作为目标中心,重新将目标区域周围选取为下一帧的搜索区域,并且更新滤波参数,然后重复之前的流程。
当目标运动超出图像采集模块视野范围外时,切换到第一种跟踪模式进行跟踪,然后当目标再次进入图像采集模块视野范围内时,重新进行选框操作,再执行第二种跟踪模式。第二种跟踪模式下的跟踪结果如图4(a)-4(i)。
图4(a)-4(i)表明第二种跟踪模式能够很好的完成对于目标的跟踪任务,并且对于旋翼飞行器晃动等干扰能够有很好的抑制效果。从图4(g)-4(i)可以看出,在背景出现干扰,且干扰进入搜索区域时,算法仍然能够保持很好的跟踪效果。
当目标运动超出图像采集模块视野范围外时,切换到第一种跟踪模式进行跟踪,然后当目标再次进入图像采集模块视野范围内时,重新进行选框操作,再执行第二种跟踪模式。

Claims (4)

1.一种双模式的旋翼飞行器目标跟踪方法,具体步骤如下:
第一步,当旋翼式飞行器在远处开始目标追踪时,开启第一种跟踪模式,通过地面机动目标所携带的电子标签中的GPS定位模块对机动目标的位置进行采集,通过电子标签中的数据处理模块对定位信息进行处理,转化为绝对的经纬度值,再通过无线传输模块将位置信息发送给多旋翼飞行器;
第二步,多旋翼飞行器通过无线接收模块接收到电子标签传送来的地面机动目标的位置信息U(LonU,LatU),然后在机载信息处理模块中,将位置信息与自身所携带的GPS定位模块解算所得到的经纬度值T(LonT,LatT)进行比对做差;
其中,LonU为目标的经度值,LatU为目标的纬度值,LonT为多旋翼飞行器的经度值,LatT为多旋翼飞行器的纬度值;
第三步,将上一步中最后得到的经纬度差值进行转换计算,最后转换为实际的距离值,转换计算公式为:
Figure FDA0002930678590000011
Figure FDA0002930678590000012
将计算所得距离值作为旋翼飞行器的输入值x和y,控制旋翼飞行器朝向目标位置飞行;
第四步,在追踪过程中,相机载荷一直采集图像,并将图像同步传输给机载图像处理模块和地面PC端,通过地面PC端进行人为检查目标是否进入相机视野范围内;
第五步,在目标进入相机视野范围内后,人为通过地面PC端将地面机动目标在图像中框选出来,选框操作完成后,开启第二种跟踪模式;
第六步,
1)在选择框所在的第一帧图像中,将目标区域的数据进行一个循环移位操作,最终选取目标周围2.5倍的区域作为搜索区域;
2)对当前帧图像中目标区域进行HOG特征的提取,提取到的特征矩阵为x1,并对特征矩阵x1进行离散傅里叶变换,获得目标在离散傅里叶域下的外观模型x′t
x′t=F(x1)
其中,F(x1)是对x1进行离散傅里叶变换;
3)计算目标外观模型的核自相关性K
4)利用非线性回归模型,计算滤波参数
α′t=(K+λI)-1y
其中,K=κ(x′t,x′t),λ是正则化参数,用来防止函数过拟合,y是由对应每个样本的回归值yi(i=1,2,3,4,5,6……)组成的列向量,yi是预先给定的样本回归目标值,是将预先选定的目标位置作为我们的样本回归目标值,来作为回归计算的比较值,也就是上一帧图像中目标所在位置,I是单位矩阵;
5)更新目标的位置以及滤波参数:
Figure FDA0002930678590000021
其中,αt为第t帧图像所对应的时刻的滤波函数,xt为第t帧图像所对应的时刻的目标位置,β是预设的学习更新参数,决定着对于上一时刻数据的依赖程度,β的取值范围是[0,1],αt-1为上一时刻的滤波参数,xt-1为上一时刻目标位置;所述上一时刻即上一帧图像所对应的时刻;对于第一帧图像所对应的来说,α1根据人为选择的目标区域位置然后带入滤波参数计算公式所得到;xt为人为选择的目标区域位置;
6)当下一帧图像进入计算时,通过前一帧图像所在位置确定的搜索区域,在区域内提取HOG特征,提取到的特征矩阵为x2,对得到特征矩阵x2进行离散傅里叶变换,获得当前时刻目标的外观模型Zt
Zt=F(x2)
其中,F(x2)是对x2进行离散傅里叶变换;
7)计算当前时刻目标的外观模型Zt与上一时刻外观模型x′t之间的核相关性Kxz
8)根据之前所得到的滤波参数计算如下的响应回归函数:
Figure FDA0002930678590000022
其中,
Figure FDA0002930678590000023
是核相关性Kxz矩阵的第一行元素,F(x)是对x进行离散傅里叶变换;
9)当前帧目标位置设定为响应函数值中幅值最大的区域,然后根据当前位置,将该位置作为目标中心,重新将目标区域周围选取为下一帧的搜索区域,并且更新滤波参数,然后重复之前的流程;
10)当目标运动超出图像采集模块视野范围外时,切换到第一种跟踪模式进行跟踪,然后当目标再次进入图像采集模块视野范围内时,重新进行选框操作,再执行第二种跟踪模式。
2.根据权利要求1所述的一种双模式的旋翼飞行器目标跟踪方法,其特征在于,第六步中在选择框所在的第一帧图像中,将目标区域的数据进行一个循环移位操作,设目标区域中的一个图像单元为X,将其分别向下以及向右平移a和b个单位,从而得到如下移位操作过的的X1
X1=PaXPb
其中,
Figure FDA0002930678590000031
通过循环移位操作,选择目标区域周围的区域,从而得到搜索区域,这个区域也就是下一帧图像所要进行搜索的范围,a和b根据图像分辨率取值,最终选取目标周围2.5倍的区域作为搜索区域。
3.根据权利要求1所述的一种双模式的旋翼飞行器目标跟踪方法,其特征在于,第六步中计算目标外观模型的核自相关性K方法如下:
K=κ(x′t,x′t),计算过程中所使用的核函数为高斯核函数,具体形式为:
Figure FDA0002930678590000032
其中
Figure FDA0002930678590000033
Figure FDA0002930678590000034
的共轭矩阵,
Figure FDA0002930678590000035
是x′t经过离散傅里叶变换得到的,F-1是离散傅里叶逆变换,σ2是高斯核带宽,取值为0.5。
4.根据权利要求1所述的一种双模式的旋翼飞行器目标跟踪方法,其特征在于,第六步中计算当前时刻目标的外观模型Zt与上一时刻外观模型x′t之间的核相关性Kxz的计算过程中所使用的核函数为高斯核函数,具体形式为:
Figure FDA0002930678590000036
其中,
Figure FDA0002930678590000037
Figure FDA0002930678590000038
的共轭矩阵,
Figure FDA0002930678590000039
是Zt经过离散傅里叶变换得到的,F-1是离散傅里叶逆变换,σ是高斯核带宽,取值为0.5。
CN201810639869.9A 2018-06-20 2018-06-20 一种双模式的旋翼飞行器目标跟踪方法 Active CN108961311B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810639869.9A CN108961311B (zh) 2018-06-20 2018-06-20 一种双模式的旋翼飞行器目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810639869.9A CN108961311B (zh) 2018-06-20 2018-06-20 一种双模式的旋翼飞行器目标跟踪方法

Publications (2)

Publication Number Publication Date
CN108961311A CN108961311A (zh) 2018-12-07
CN108961311B true CN108961311B (zh) 2021-06-22

Family

ID=64491419

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810639869.9A Active CN108961311B (zh) 2018-06-20 2018-06-20 一种双模式的旋翼飞行器目标跟踪方法

Country Status (1)

Country Link
CN (1) CN108961311B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112911151B (zh) * 2021-01-29 2023-04-07 京东科技信息技术有限公司 目标跟随方法、装置、设备、系统及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018051232A1 (en) * 2016-09-13 2018-03-22 Hangzhou Zero Zero Technology Co., Ltd. Unmanned aerial vehicle system and method with environmental sensing
CN106874854B (zh) * 2017-01-19 2019-12-31 西安电子科技大学 基于嵌入式平台的无人机车辆跟踪方法
CN107590820B (zh) * 2017-08-25 2020-06-02 兰州飞搜信息科技有限公司 一种基于相关滤波的视频对象追踪方法及其智能装置

Also Published As

Publication number Publication date
CN108961311A (zh) 2018-12-07

Similar Documents

Publication Publication Date Title
CN107808407B (zh) 基于双目相机的无人机视觉slam方法、无人机及存储介质
Abd-Elrahman et al. Development of pattern recognition algorithm for automatic bird detection from unmanned aerial vehicle imagery
CN105865454B (zh) 一种基于实时在线地图生成的无人机导航方法
CN111476116A (zh) 一种用于车辆检测跟踪的旋翼无人机系统及检测跟踪方法
Bagheri Development of a high-resolution aerial remote-sensing system for precision agriculture
CN110458877B (zh) 基于仿生视觉的红外与可见光信息融合的导航方法
US20100305857A1 (en) Method and System for Visual Collision Detection and Estimation
Hassan-Esfahani et al. Topsoil moisture estimation for precision agriculture using unmmaned aerial vehicle multispectral imagery
CN109584213B (zh) 一种多目标编号选定跟踪方法
Zhang et al. Prediction of sorghum biomass based on image based features derived from time series of UAV images
WO2020103108A1 (zh) 一种语义生成方法、设备、飞行器及存储介质
Ghazal et al. UAV-based remote sensing for vegetation cover estimation using NDVI imagery and level sets method
CN104504748A (zh) 一种无人机倾斜摄影红外三维成像系统及建模方法
CN110765948A (zh) 一种基于无人机的目标检测识别方法及系统
WO2020103109A1 (zh) 一种地图生成方法、设备、飞行器及存储介质
Kemker et al. High-resolution multispectral dataset for semantic segmentation
Andrea et al. Geolocation and counting of people with aerial thermal imaging for rescue purposes
Ichim et al. Road detection and segmentation from aerial images using a CNN based system
Faheem et al. Uav emergency landing site selection system using machine vision
CN108961311B (zh) 一种双模式的旋翼飞行器目标跟踪方法
Guo et al. Target recognition method of small UAV remote sensing image based on fuzzy clustering
Felizardo et al. Using ANN and UAV for terrain surveillance
Soltani et al. Transfer learning from citizen science photographs enables plant species identification in UAV imagery
KR102440457B1 (ko) 지구 관측 영상 전송 우선순위 결정 방법 및 장치
Yan et al. A UAV remote sensing system: design and tests

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant