CN109741365A - 目标跟踪方法、无人机、终端设备及存储介质 - Google Patents
目标跟踪方法、无人机、终端设备及存储介质 Download PDFInfo
- Publication number
- CN109741365A CN109741365A CN201811426442.7A CN201811426442A CN109741365A CN 109741365 A CN109741365 A CN 109741365A CN 201811426442 A CN201811426442 A CN 201811426442A CN 109741365 A CN109741365 A CN 109741365A
- Authority
- CN
- China
- Prior art keywords
- region
- target
- matched
- frame image
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本申请实施例提供一种目标跟踪方法、无人机、终端设备及存储介质。在本申请实施例中,根据无人机与目标对象的相对运动情况,适应性的调整上帧图像确定出的目标区域来确定当前帧图像的搜索区域和待匹配区域的尺寸,以与当前帧目标对象所在的目标区域的大小相适配,进而可降低背景信息的干扰,提高对目标区域识别的准确性和效率,进而提高对目标对象跟踪的准确性和跟踪效率。
Description
技术领域
本申请涉及无人机技术领域,尤其涉及一种目标跟踪方法、无人机、终端设备及存储介质。
背景技术
无人机是一种无人驾驶的飞行器,它可以由地面遥控设备进行远程操控或者通过机载电脑自动驾驶。与载人飞行器相比,无人机体积小、造价低、使用方便。由于无人机的非载人特性以及多维度的可操控性等特点,在军事领域、航拍、农业、运输、娱乐等很多领域中得到广泛应用。
在一些领域中,无人机在作业过程中,需要对其目标对象进行识别和跟踪。目前无人机对目标对象进行跟踪,依赖于操作者在地面遥控设备的界面上对目标对象的框选标记操作。操作者对目标对象进行框选时容易出现标记误差,导致目标对象标记不准确,影响跟踪的准确性。
发明内容
本申请的多个方面提供一种目标跟踪方法、无人机、终端设备及存储介质,用以提高无人机对目标对象跟踪的准确性。
本申请实施例提供一种目标跟踪方法,包括:
获取无人机采集的当前帧图像,所述当前帧图像包括需要跟踪的目标对象;
根据所述无人机相对所述目标对象的运动情况对基准目标区域进行尺寸调整,以得到当前帧图像中的搜索区域,所述基准目标区域是所述目标对象在上一帧图像中所在的目标区域;
对所述基准目标区域进行至少一次变形处理,得到所述搜索区域中至少一个待匹配区域;
根据所述至少一个待匹配区域的图像特征,从所述至少一个待匹配区域中确定所述目标对象在当前帧图像中所在的目标区域。
本申请实施例提供一种无人机,其特征在于,包括:视觉传感器、存储器和处理器;其中,
所述视觉传感器,用于采集当前帧图像;所述当前帧图像包括需要跟踪的目标对象;
所述存储器,用于存储计算机程序;
所述处理器耦合至所述存储器,用于执行所述计算机程序以用于:
获取所述当前帧图像;
根据所述无人机相对所述目标对象的运动情况对基准目标区域进行尺寸调整,以得到当前帧图像中的搜索区域,所述基准目标区域是所述目标对象在上一帧图像中所在的目标区域;
对所述基准目标区域进行至少一次变形处理,得到所述搜索区域中至少一个待匹配区域;
根据所述至少一个待匹配区域的图像特征,从所述至少一个待匹配区域中确定所述目标对象在当前帧图像中所在的目标区域。
本申请实施例还提供一种终端设备,包括:存储器、处理器和通信组件;其中,所述存储器,用于存储计算机程序;
所述通信组件,用于接收无人机采集的当前帧图像,所述当前帧图像包括需要跟踪的目标对象;
所述处理器耦合至所述存储器,用于执行所述计算机程序以用于:
根据所述无人机相对所述目标对象的运动情况对基准目标区域进行尺寸调整,以得到当前帧图像中的搜索区域,所述基准目标区域是所述目标对象在上一帧图像中所在的目标区域;
对所述基准目标区域进行至少一次变形处理,得到所述搜索区域中至少一个待匹配区域;
根据所述至少一个待匹配区域的图像特征,从所述至少一个待匹配区域中确定所述目标对象在当前帧图像中所在的目标区域。
本申请实施例还提供一种存储有计算机指令的计算机可读存储介质,其特征在于,当所述计算机指令被一个或多个处理器执行时,致使所述一个或多个处理器执行上述方法中的步骤。
在本申请实施例中,根据无人机相对目标对象的运动情况,对上一帧图像中目标对象所在的基准目标区域进行尺度调整,进而获得当前帧图像的搜索区域;并对该基准目标区域进行至少一次变形处理,得到当前帧图像的搜索区域中的至少一个待匹配区域;进而根据这些待匹配区域的图像特征,从待匹配区域中确定目标对象在当前帧图像中所在的目标区域,从而实现对目标对象的跟踪。在本申请实施例中,根据无人机与目标对象的相对运动情况,适应性的调整上帧图像确定出的目标区域来确定当前帧图像的搜索区域和待匹配区域的尺寸,以与当前帧目标对象所在的目标区域的大小相适配,进而可降低背景信息的干扰,提高对目标区域识别的准确性和效率,进而提高对目标对象跟踪的准确性和跟踪效率。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1a为本申请实施例提供的一种目标跟踪方法的流程示意图;
图1b为本申请实施例提供的一种坐标系建立方法的示意图;
图1c-图1f为本申请实施例提供的哈尔特征模板的示意图;
图2为本申请实施例提供的一种目标跟踪系统的结构示意图;
图3a为本申请实施例提供的一种无人机的结构示意图;
图3b为本申请实施例提供的一种无人机的内部结构示意图;
图4为本申请实施例提供的一种终端设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
针对现有无人机跟踪目标对象准确率较低的技术问题,本申请实施例提供一种解决方案,基本思路是:根据无人机相对目标对象的运动情况,对上一帧图像中目标对象所在的基准目标区域进行尺度调整,进而获得当前帧图像的搜索区域;并对该基准目标区域进行至少一次变形处理,得到当前帧图像的搜索区域中的至少一个待匹配区域;进而根据这些待匹配区域的图像特征,从待匹配区域中确定目标对象在当前帧图像中所在的目标区域,从而实现对目标对象的跟踪。在本申请实施例中,根据无人机与目标对象的相对运动情况,适应性的调整上帧图像确定出的目标区域来确定当前帧图像的搜索区域和待匹配区域的尺寸,以与当前帧目标对象所在的目标区域的大小相适配,进而可降低背景信息的干扰,提高对目标区域识别的准确性和效率,进而提高对目标对象跟踪的准确性和跟踪效率。
以下结合附图,详细说明本申请各实施例提供的技术方案。
图1a为本申请实施例提供的一种目标跟踪方法的流程示意图。该方法不仅适用于无人机,还适用于对无人机进行遥控的终端设备。当目标跟踪的执行主体为终端设备时,无人机将采集到的图像发送给终端设备,由终端设备完成目标的识别与跟踪。下面从无人机的角度,对本申请实施例提供的目标跟踪方法,进行示例性说明。如图1a所示,本实施例提供的目标跟踪方法包括:
101、获取无人机采集的当前帧图像,且当前帧图像包括需要跟踪的目标对象。
102、根据无人机相对目标对象的运动情况对基准目标区域进行尺寸调整,以得到当前帧图像中的搜索区域,其中,基准目标区域是目标对象在上一帧图像中所在的目标区域。
103、对基准目标区域进行至少一次变形处理,得到搜索区域中至少一个待匹配区域。
104、根据至少一个待匹配区域的图像特征,从至少一个待匹配区域中确定目标对象在当前帧图像中所在的目标区域。
在本实施例中,无人机上安装有视觉传感器,主要用于采集视觉传感器拍摄范围内的图像。视觉传感器可以采用任何具有图像采集功能的设备实现,例如可以采用摄像头、照相机等。
进一步,在本实施例中,无人机上还安装有距离传感器,用于测量无人机相对目标对象的距离,进而根据其与目标对象的距离,确定无人机相对目标对象的运动情况。可选地,距离传感器可以为红外传感器、激光传感器等,但不限于此。或者,可通过无人机相应的遥控设备,向无人机发送指令,以使无人机能够根据相应的指令,判断其与目标对象的相对位置。例如,与无人机对应的遥控设备向无人机发送降落指令,无人机便可将升降平台作为目标对象,并可根据降落指令确定出其与升降平台的距离逐渐缩小。
可选地,在步骤101之前,可对目标对象进行样本训练。可选地,可获取目标对象的大量图像,包括不同拍摄角度、不同拍摄距离的图像,作为训练样本图像,并利用这些训练样本图像构建目标对象的网络识别模型,例如单个深层神经网络检测(Single ShotMultiBox Detector,SSD)网络模型等,进而可利用网络识别模型提取目标对象进行深度图像特征。
基于上述网络识别模型,在本实施例中,在步骤101之前,无人机可通过全球定位系统(Global Positioning System,GPS)定位到某个位置,处于悬停状态,此时无人机可开启搜索模式,开始不断采集图像,并根据采集到的图像的深度图像特征,确定目标对象所在的原始图像以及目标对象在原始图像中的基准目标区域。
在本申请实施例中,将搜索过程中识别出目标对象时的那帧图像,定义为原始图像(进行目标跟踪的第1帧图像),之后,便根据目标对象在原始图像中的基准目标区域以及无人机相对目标对象的运动情况,对该基准目标区域进行尺度调整,进而得到第2帧图像中的搜索区域;之后按照步骤103和104,确定出目标对象在第2帧图像中的目标区域。进一步,当对第3帧图像进行识别时,以第2帧图像确定出的目标区域作为基准目标区域,并按照步骤102-104中的方法,确定出目标对象在第3帧图像中的目标区域。以此类推,当对无人机采集到的当前帧图像进行处理时,将目标对象在上一帧图像中所在的目标区域作为基准目标区域,并按照步骤102-104中所述的方法,确定出目标对象在当前帧图像中的目标区域,进而实现对目标对象的实时跟踪,以防跟丢目标。
考虑到无人机对目标对象进行图像采集时,二者之间的相对位置关系影响采集到的目标对象在当前帧图像中的尺寸大小。基于此,在步骤102中,根据无人机相对目标对象的运动情况,对目标对象在上一帧图像中的基准目标区域进行尺寸调整,来获得当前帧图像中的搜索区域,而不是以固定尺寸的区域作为搜索区域,可以提高确定出的搜索区域的准确性。
进一步,在步骤103中,对基准目标区域进行变形处理,在搜索区域中确定待匹配区域,可以进一步提高确定出的待匹配区域的准确性,减小背景信息的干扰,进而可提高对目标对象识别和跟踪的效率。
在本实施例中,根据无人机与目标对象的相对运动情况,适应性的调整上帧图像确定出的目标区域来确定当前帧图像的搜索区域和待匹配区域的尺寸,以与当前帧目标对象所在的目标区域的大小相适配,进而可降低背景信息的干扰,提高对目标区域识别的准确性和效率,进而提高对目标对象跟踪的准确性和跟踪效率。
相应地,若在当前帧图像中没有发现目标对象,则可重新开启搜索模式,并开始不断采集图像,并根据采集到的图像的深度图像特征,重新确定目标对象所在的原始图像以及目标对象在原始图像中的基准目标区域。
在一可选实施例中,考虑到无人机对目标对象进行图像采集时,二者之间的相对位置关系影响采集到的目标对象在当前帧图像中的尺寸大小。当无人机与目标对象之间的距离减小时,无人机采集到的目标对象在当前帧图像中的尺寸相较于上一帧会增大;相应地,当无人机与目标对象之间的距离增大时,无人机采集到的目标对象在当前帧图像中的尺寸相较于上一帧会减小,即“近大远小”。基于此,如果采用固定尺寸的搜索区域对无人机采集到的所有帧图像进行目标对象的搜索,则,如果无人机与目标对象之间的距离减小时,固定尺寸的搜索区域可能会小于目标对象在当前帧图像中的目标区域,这样将无法获取目标对象准确的目标区域;相应地,如果无人机与目标对象之间的距离增大时,固定尺寸的搜索区域可能会大于目标对象在当前帧图像中的目标区域,这样则会引入无用的背景信息,进而影响目标区域确定的准确率和效率。
基于上述分析,步骤102的一种可选实施方式为:当无人机与目标对象之间的距离减小时,对基准目标区域的尺寸进行扩展,以得到当前帧图像中的搜索区域;当无人机与目标对象之间的距离增大时,对基准目标区域进行压缩,以得到当前帧图像的搜索区域。
值得说明的是,在本申请实施例中,目标对象可以为地面上静止的物体,例如可以为地面上供无人机起飞或降落的升降平台;也可为地面上或任何物理空间上移动的物体。当目标对象为升降平台时,无人机在降落过程中,可跟踪升降平台,完成准确降落。其中,在无人机降落过程中,无人机与升降平台(目标对象)之间的距离逐渐减小,则可对基准目标区域的尺寸进行扩展,得到搜索区域。
进一步,在本申请实施例中,对无人机上的视觉传感器不进行调整,即无人机采集到的所有帧图像的尺寸相同。根据视觉传感器的物理硬件特征不同,其采集到的图像可能为圆形、矩形、菱形等。相应地,基准目标区域以及目标区域也可能为圆形、矩形、菱形等。在对当前帧图像的搜索区域进行调整时,可基于无人机采集到的图像建立坐标系。下面以无人机采集到的图像为矩形图像,基准目标区域、搜索区域以及目标区域为矩形为例,进行示例性说明。
可选地,如图1b所示,可以无人机采集到的矩形图像的左上顶点A为坐标系的原点O,并以左上定点的两条边AB和AC分别为x轴和y轴,其中,x轴和y轴的正方向往矩形图像延伸。在本申请实施例中,以矩形区域的左上顶点的坐标(x,y)、该矩形区域分别在x轴和y轴正方向上延伸的长度w和h表示矩形区域,且将其在x轴方向上的长度w定义为矩形区域的宽;将其在y轴方向上的长度h定义为该矩形区域的高。
基于上述坐标系,如图1b所示,基准目标区域可表示为R0=(x0,y0,w0,h0),其中,(x0,y0)表示基准目标区域的左上顶点的坐标,w0表示基准目标区域在x轴正方向上的延伸长度,即基准目标区域的宽为w0,h0表示基准目标区域在y轴正方向的延伸长度,即基准目标区域的高为h0。
基于上述坐标系以及基准目标区域,当无人机与目标对象的距离减小时,可根据公式area0={x0-w0/M,y0-h0/M,w0*M,h0*M},将基准目标区域的尺寸扩大为原来的M倍,并将扩大M倍后的矩形区域作为当前帧图像的搜索区域。其中,1<M≤[S0/(w0*h0)],S0表示无人机采集到的图像的尺寸。在本申请实施例中,不限定M的具体取值,其可以根据实际需求进行灵活设置,但需保证搜索区域的大小不大于无人机采集到的图像的尺寸,即当前帧图像的尺寸。例如M可以取1.5、2、3等,但不限于此。
相应地,当无人机与目标对象的距离增大时,可根据公式area0={x0+w0/N,y0+h0/N,w0/N,h0/N},将基准目标区域的尺寸压缩为原来的1/N倍;其中,N>1。在本申请实施例中,不限定M的具体取值,其可以根据实际需求进行灵活设置,例如M可以取1.5、2、3等,但不限于此。
进一步,在确定出搜索区域后,可以上一帧图像确定出的基准目标区域为基准,对其进行变形处理,以在当前帧图像中的搜索区域中确定出待匹配区域。可选地,可对基准目标区域进行伸缩和/或平移变换,以得到搜索区域中至少一个待匹配区域;其中,每个待匹配区域的面积小于或等于搜索区域的面积。其中,对待匹配区域的数量等于对基准目标区域进行伸缩和/或平移变换的次数,而对基准目标区域进行伸缩和/或平移变换的次数可根据实际需求进行灵活设置。
基于上述坐标系,同样以其以无人机采集到的图像为矩形图像,基准目标区域、搜索区域以及目标区域为矩形为例,对在搜索区域中确定待匹配区域的过程进行示例性说明。
基于上一帧图像的基准目标区域表示为R0=(x0,y0,w0,h0),假设对基准目标区域进行平移的次数为P,对基准目标区域进行伸缩变化的次数为Q,其中P和Q为自然数,且不同时为0。则,当P和Q均不为0时,待匹配区域可表示为Rij'=(xi',yi',wj',hj'),其中i=1,2...,P;j=1,2...,Q。在本实施例中,可遍历搜索区域area0内的待匹配区域,其中待匹配区域可Rij'中各元素表示为:
xi'=x0*(1+xscalei),为待匹配区域的左上角x坐标;
yi'=y0*(1+yscalei)为待匹配区域的左上角y坐标;
wj'=w0*wscalej为待匹配区域的宽;
hj'=h0*hscalej为待匹配区域的高。
其中,xscalei和yscalei表示对基准目标区域进行平移的大小,wscalej和hscalej表示对基准目标区域进行伸缩的系数,进而得到P*Q个待匹配区域。
可选地,当P为0,Q为正整数时,则只对基准目标区域进行伸缩变换,待匹配区域可表示为Rij'=(x0,y0,wj',hj'),其中,j=1,2...,Q,即得到Q个待匹配区域。
相应地,当Q为0,P为正整数时,则只对基准目标区域进行伸缩变换,待匹配区域可表示为Rij'=(xi',yi',w0,h0),其中,j=1,2...,Q,即得到P个待匹配区域。
进一步,当在当前帧图像的搜索区域中确定出各待匹配区域后,可分别提取这些待匹配区域的图像特征,并根据这些待匹配区域的图像特征,从这些待匹配区域中确定目标对象在当前帧图像中的目标区域,从而实现无人机对目标对象的跟踪。可选地,可采用haar-like特征(哈尔特征)提取方法,对待匹配区域的图像特征进行提取。哈尔特征值反映了图像的灰度变化情况,包括:如图1c所示的边缘特征、如图1d所示的线性特征、如图1e所示的中心特征和如图1f所示的对角线特征。这些哈尔特征可组合成特征模板,特征模板内有白色和黑色两种矩形,并定义该模板的特征值为白色矩形像素和减去黑色矩形像素和。通过改变特征模板的大小和位置,可在待匹配区域中穷举出大量的特征。图1c-图1f所示的特征模板称为“特征原型”,“特征原型”在待匹配区域中扩展(平移伸缩)得到的特征称为“矩形特征”,矩形特征的值称为“特征值”。
进一步,可选地,可将上一帧图像的目标区域的特征区域作为当前帧图像的“特征原型”,并将对该“特征原型”在待匹配区域中进行平移和/或伸缩变换得到的矩形,定义为特征区域。基于此,步骤104的一种可选实施方式为:对上一帧图像的基准目标区域的特征区域进行平移和/或伸缩变换,确定至少一个待匹配区域的特征区域;获取至少一个待匹配区域的特征区域的哈尔特征;根据至少一个待匹配区域的特征区域的哈尔特征,从至少一个待匹配区域中确定目标对象在当前帧图像中的目标区域。
可选地,若上一帧图像为原始图像,即上述最开始识别出目标对象时的第1帧图像,对于原始图像的特征区域,可根据目标对象在原始图像(开始进行目标跟踪的第1帧图像)中的基准目标区域,获取目标对象在原始图像中的基准目标区域的特征区域。一种可选的具体实施方式为:
xf10=rng.uniform(0,(w0-8)),为原始图像中的基准目标区域的左上角的x坐标;
yf10=rng.uniform(0,(h0-8)),为原始图像中的基准目标区域的左上角的y坐标;
wf10=rng.uniform(0,(w0-xf10)),为原始图像中的基准目标区域的宽;
hf10=rng.uniform(0,(h0-yf10-2)),为原始图像中的基准目标区域的高;
其中,rng.uniform(·)表示随机函数。
基于上述公式,对随机函数进行两次运算,便可得到原始图像中的基准目标区域的特征区域。
进一步,可根据至少一个待匹配区域的特征区域的哈尔特征,计算至少一个待匹配区域作为目标区域的概率值;并将至少一个待匹配区域中概率值最大的待匹配区域,作为目标对象在当前帧图像中的目标区域。
为了便于理解上述在当前帧图像中确定出目标对象所在目标区域的具体实施过程,下面基于上述坐标系,以其以无人机采集到的图像为矩形图像,基准目标区域、搜索区域以及目标区域为矩形为例,进行示例性说明。假设上一帧图像的目标区域的特征区域表示为F01=(xf1,yf1,wf1,hf1)和F02=(xf2,yf2,wf2,hf2),则,待匹配区域的特征区域可表示为Fk1=(xk1,yk1,wk1,hk1)和Fk2=(xk2,yk2,wk2,hk2);其中,k=1,2...,K,K为对上一帧图像的目标区域(基准目标区域)的特征区域进行平移伸缩的总次数。对于特征区域Fk1,其中的各元素为:
xk1=xi'+(xf1-x0)*wscalek,为特征区域Fk1的x坐标;
yk1=yi'+(yf1-y0)*hscalek,为特征区域Fk1的y坐标;
wk1=wf1*wscalek,为特征区域Fk1的宽;
hk1=hf1*hscalek,为特征区域Fk1的高;
其中,xscalek和yscalek表示对基准目标区域的特征区域F01进行平移的大小,wscalek和hscalek表示对基准目标区域的特征区域F01进行伸缩的系数。
同理,可按照相同的方式对基准目标区域的另一特征区域F02进行平移伸缩,进而得到待匹配区域的另一特征区域Fk2。其中,待匹配区域的特征区域由Fk1和Fk2组成的,k=1,2...,K。
可选地,对于特征区域中的任一特征子区域Fk1和Fk2,可求得该特征子区域的加权灰度和。可选地,可进一步对各特征子区域的加权灰度和进行归一化处理,其中,归一化处理的公式如下:
grayk=(gray(Fk1)+gray(Fk2))/(wk1*hk1+wk2*hk2)
其中,gray(Fk1)表示特征子区域中Fk1的灰度,gray(Fk2)表示特征子区域中Fk2的灰度,进而得到待匹配区域的特征区域对应的哈尔特征矩阵。
进一步,可选地,可将待匹配区域的特征区域对应的哈尔特征矩阵送入贝叶斯分类器,计算各待匹配区域作为目标区域的概率,并将概率值最大的待匹配区域作为目标区域。
可选地,为了减小计算量,提高计算速率,可采用稀疏矩阵对各待匹配区域的特征区域对应的哈尔特征矩阵进行降维处理,并将降维后的哈尔特征矩阵送入贝叶斯分离器,计算各待匹配区域作为目标区域的概率。
可选地,如果计算出的各待匹配区域作为目标区域的概率都小于预设的概率阈值,则认为没有在当前帧图像中发现目标对象,即无人机跟丢了目标对象。在此情况下,可使无人机重新开启搜索模式,并开始不断采集图像,并根据采集到的图像的深度图像特征,重新确定目标对象所在的原始图像以及目标对象在原始图像中的基准目标区域。
进一步,可选地,可计算当前帧图像的待匹配区域的特征区域对应的哈尔特征矩阵的期望和标准差,并利用计算出的期望和标准差更新贝叶斯分类器,以在对下一帧图像进行处理时,调用更新后的贝叶斯分类器,计算下一帧图像中各待匹配区域作为目标对象在下一帧图像中的目标区域的概率,并将概率值最大的待匹配区域作为目标对象在下一帧图像的目标区域。
值得说明的是,上述目标跟踪过程可由无人机执行,也可以是无人机与终端设备配合实施。下面结合图2所示的系统架构,对终端设备与无人机配合实现目标跟踪的过程进行示例性说明。如图2所示,系统架构包括无人机20a和终端设备20b。需要说明的是,图2中所示的无人机和终端设备的实现形式只是示例性说明,并不对其实现形式进行限制。
在本实施例中,终端设备20b可以为智能手机、平板电脑、个人电脑、穿戴设备等。终端设备20b通常包括至少一个处理单元和至少一个存储器。处理单元和存储器的数量取决于遥控设备的配置和类型。存储器可以包括易失性的,例如RAM,也可以包括非易失性的,例如只读存储器(Read-Only Memory,ROM)、闪存等,或者也可以同时包括两种类型的。存储器内通常存储有操作系统(Operating System,OS)、一个或多个应用软件,也可以存储有程序数据等。除了处理单元和存储器之外,遥控设备也会包括网卡芯片、IO总线、音视频组件等基本配置。可选地,根据遥控设备的实现形式,遥控设备也可以包括一些外围设备,例如键盘、鼠标、输入笔、打印机等。这些外围设备在本领域中是众所周知的,在此不做赘述。
其中,终端设备20b和无人机20a之间可以是无线连接。可选地,终端设备20b可以通过移动网络和无人机10通信连接,相应地,移动网络的网络制式可以为2G(GSM)、2.5G(GPRS)、3G(WCDMA、TD-SCDMA、CDMA2000、UTMS)、4G(LTE)、4G+(LTE+)、WiMax等中的任意一种。可选地,终端设备20b也可以通过蓝牙、WiFi、红外线等方式和无人机20a通信连接。
在本实施例中,无人机20a用于采集图像,并把采集到的图像发送给终端设备20b。终端设备20b根据上述目标跟踪方法中的各步骤,确定出目标对象在当前帧图像中的目标区域,并将目标区域信息发送给无人机20a,以供无人机20a对目标区域进行跟踪。其中,终端设备20b确定目标对象在当前帧图像中的目标区域的过程,可参见上述实施例的相关描述,在此不再赘述。
需要说明的是,上述实施例所提供方法的各步骤的执行主体均可以是同一设备,或者,该方法也由不同设备作为执行主体。比如,步骤101和102的执行主体可以为设备A;又比如,步骤101的执行主体可以为设备A,步骤102的执行主体可以为设备B;等等。
另外,在上述实施例及附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如101、102等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。
本申请实施例还提供一种存储有计算机指令的计算机可读存储介质,当计算机指令被一个或多个处理器执行时,致使一个或多个处理器执行上述目标跟踪方法中的步骤。
图3a为本申请实施例提供的一种无人机的结构示意图。如图3a所示,无人机包括机械本体30a以及位于本体上的视觉传感器30b。其中,视觉传感器30b,用于采集当前帧图像,当前帧图像包括需要跟踪的目标对象。图3b为本申请实施例提供的一种无人机的内部结构示意图。如图3b所示,无人机30b还包括:存储器30c和处理器30d。需要说明的是,图3a中所示的无人机的实现形式只是示例性说明,并不对其实现形式进行限制。
其中,存储器30c,用于存储计算机程序。
处理器30d耦合至存储器,用于执行计算机程序以用于:获取当前帧图像;根据无人机相对目标对象的运动情况对基准目标区域进行尺寸调整,以得到当前帧图像中的搜索区域,基准目标区域是目标对象在上一帧图像中所在的目标区域;对基准目标区域进行至少一次变形处理,得到搜索区域中至少一个待匹配区域;根据至少一个待匹配区域的图像特征,从至少一个待匹配区域中确定目标对象在当前帧图像中所在的目标区域。
在一可选实施例中,处理器30d在根据无人机相对目标对象的运动情况对基准目标区域进行尺寸调整时,具体用于:当无人机与目标对象之间的距离减小时,对基准目标区域的尺寸进行扩展,以得到当前帧图像中的搜索区域;当无人机与目标对象之间的距离增大时,对基准目标区域进行压缩,以得到当前帧图像的搜索区域。
进一步,处理器30d在对基准目标区域的尺寸进行扩展时,具体用于:根据公式area0={x0-w0/M,y0-h0/M,w0*M,h0*M},将基准目标区域的尺寸扩大为原来的M倍;其中,1<M≤[S0/(w0*h0)]。
相应地,处理器30d在对对原始目标区域进行压缩时,具体用于:根据公式area0={x0+w0/N,y0+h0/N,w0/N,h0/N},将基准目标区域的尺寸压缩为原来的1/N倍;其中,N>1。
其中,x0和y0分别表示原始目标区域的左上顶点在坐标系中的横纵坐标,w0和h0分别表示原始目标区域的宽和高;S0表示无人机采集到的图像的尺寸;坐标系以获取的图像的左上顶点为原点,以左上顶点的两条边分别为x轴和y轴。
在另一可选实施例中,处理器30d在对基准目标区域进行至少一次变形处理时,具体用于:对基准目标区域进行伸缩和/或平移变换,以得到搜索区域中至少一个待匹配区域;其中,每个待匹配区域的面积小于或等于搜索区域的面积。
在又一可选实施例中,处理器30d在从至少一个待匹配区域中确定目标对象在当前帧图像中的目标区域时,具体用于:对基准目标区域的特征区域进行平移和/或伸缩变换,确定至少一个待匹配区域的特征区域;获取至少一个待匹配区域的特征区域的哈尔特征;根据至少一个待匹配区域的特征区域的哈尔特征,从至少一个待匹配区域中确定目标对象在当前帧图像中的目标区域。
进一步,处理器30d在从至少一个待匹配区域中确定目标对象在当前帧图像中的目标区域时,具体用于:根据至少一个待匹配区域的特征区域的哈尔特征,计算至少一个待匹配区域作为目标区域的概率值;将至少一个待匹配区域中概率值最大的待匹配区域,作为目标区域。
可选地,若上一帧图像为原始图像,处理器30d在对基准目标区域的特征区域进行平移和/或伸缩变换,确定至少一个待匹配区域的特征区域之前,还用于:根据目标对象在原始图像中的基准目标区域,获取目标对象在原始图像中的基准目标区域的特征区域。
在又一可选实施例中,处理器30d在采集当前帧图像,当前帧图像包括需要跟踪的目标对象之前,还用于:根据采集到的图像的深度图像特征,确定目标对象所在的原始图像,并确定目标对象在原始图像中的基准目标区域。
在一些可选实施方式中,如图3b所示,该无人机还可以包括:通信组件30e、电源组件30f、音频组件30h等可选组件。图3b中仅示意性给出部分组件,并不意味着无人机必须包含图3a和图3b所示全部组件,也不意味着无人机只能包括图3a和图3b所示组件。
需要说明的是,上述图3a和图3b中所示的无人机的形状以及其所包含的处理器、视觉传感器、存储器、通信组件、电源组件和音频组件在无人机上的位置只是示例性说明,并不对其形状和设置位置进行限制。另外,除图3a和图3b所示组件之外,无人机还可以根据应用需求包含还可包括起落架、除视觉传感器之外的其他类型的传感器(图3a和图3b中未示出)等,例如距离传感器、磁力计、加速度传感器等等,但不限于此。
本实施例提供的无人机,可根据其相对目标对象的运动情况,对上一帧图像中目标对象所在的基准目标区域进行尺度调整,进而获得当前帧图像的搜索区域;并对该基准目标区域进行至少一次变形处理,得到当前帧图像的搜索区域中的至少一个待匹配区域;进而根据这些待匹配区域的图像特征,从待匹配区域中确定目标对象在当前帧图像中所在的目标区域,从而实现对目标对象的跟踪。在本申请实施例中,无人机根据其与目标对象的相对运动情况,适应性的调整上帧图像确定出的目标区域来确定当前帧图像的搜索区域和待匹配区域的尺寸,以与当前帧目标对象所在的目标区域的大小相适配,进而可降低背景信息的干扰,提高对目标区域识别的准确性和效率,进而提高对目标对象跟踪的准确性和跟踪效率。
图4为本申请实施例提供的一种终端设备的结构示意图。终端设备可以为智能手机、平板电脑、个人电脑、穿戴设备等。如图4所示,该终端设备包括:存储器40a、处理器40b和通信组件40c。
其中,存储器40a,用于存储计算机程序。
通信组件40c,用于接收无人机采集的当前帧图像,其中,当前帧图像包括需要跟踪的目标对象。
处理器40b耦合至存储器40a,用于执行计算机程序以用于:根据无人机相对目标对象的运动情况对基准目标区域进行尺寸调整,以得到当前帧图像中的搜索区域,基准目标区域是目标对象在上一帧图像中所在的目标区域;对基准目标区域进行至少一次变形处理,得到搜索区域中至少一个待匹配区域;根据至少一个待匹配区域的图像特征,从至少一个待匹配区域中确定目标对象在当前帧图像中所在的目标区域。
在一可选实施例中,处理器40b在根据无人机相对目标对象的运动情况对基准目标区域进行尺寸调整时,具体用于:当无人机与目标对象之间的距离减小时,对基准目标区域的尺寸进行扩展,以得到当前帧图像中的搜索区域;当无人机与目标对象之间的距离增大时,对基准目标区域进行压缩,以得到当前帧图像的搜索区域。
进一步,处理器40b在对基准目标区域的尺寸进行扩展时,具体用于:根据公式area0={x0-w0/M,y0-h0/M,w0*M,h0*M},将基准目标区域的尺寸扩大为原来的M倍;其中,1<M≤[S0/(w0*h0)]。
相应地,处理器40b在对对原始目标区域进行压缩时,具体用于:根据公式area0={x0+w0/N,y0+h0/N,w0/N,h0/N},将基准目标区域的尺寸压缩为原来的1/N倍;其中,N>1。
其中,x0和y0分别表示原始目标区域的左上顶点在坐标系中的横纵坐标,w0和h0分别表示原始目标区域的宽和高;S0表示无人机采集到的图像的尺寸;坐标系以获取的图像的左上顶点为原点,以左上顶点的两条边分别为x轴和y轴。
在另一可选实施例中,处理器40b在对基准目标区域进行至少一次变形处理时,具体用于:对基准目标区域进行伸缩和/或平移变换,以得到搜索区域中至少一个待匹配区域;其中,每个待匹配区域的面积小于或等于搜索区域的面积。
在又一可选实施例中,处理器40b在从至少一个待匹配区域中确定目标对象在当前帧图像中的目标区域时,具体用于:对基准目标区域的特征区域进行平移和/或伸缩变换,确定至少一个待匹配区域的特征区域;获取至少一个待匹配区域的特征区域的哈尔特征;根据至少一个待匹配区域的特征区域的哈尔特征,从至少一个待匹配区域中确定目标对象在当前帧图像中的目标区域。
进一步,处理器40b在从至少一个待匹配区域中确定目标对象在当前帧图像中的目标区域时,具体用于:根据至少一个待匹配区域的特征区域的哈尔特征,计算至少一个待匹配区域作为目标区域的概率值;将至少一个待匹配区域中概率值最大的待匹配区域,作为目标区域。
可选地,若上一帧图像为原始图像,处理器40b在对基准目标区域的特征区域进行平移和/或伸缩变换,确定至少一个待匹配区域的特征区域之前,还用于:根据目标对象在原始图像中的基准目标区域,获取目标对象在原始图像中的基准目标区域的特征区域。
在又一可选实施例中,处理器40b在采集当前帧图像,当前帧图像包括需要跟踪的目标对象之前,还用于:根据采集到的图像的深度图像特征,确定目标对象所在的原始图像,并确定目标对象在原始图像中的基准目标区域。
在一些可选实施方式中,如图4所示,该无人机还可以包括:显示器40d、电源组件40e、音频组件40f等可选组件。图4中仅示意性给出部分组件,并不意味着终端设备必须包含图4所示全部组件,也不意味着无人机只能包括图4所示组件。
本实施例提供的终端设备,可根据无人机相对目标对象的运动情况,对上一帧图像中目标对象所在的基准目标区域进行尺度调整,进而获得当前帧图像的搜索区域;并对该基准目标区域进行至少一次变形处理,得到当前帧图像的搜索区域中的至少一个待匹配区域;进而根据这些待匹配区域的图像特征,从待匹配区域中确定目标对象在当前帧图像中所在的目标区域,从而实现对目标对象的跟踪。在本申请实施例中,终端设备根据无人机与目标对象的相对运动情况,适应性的调整上帧图像确定出的目标区域来确定当前帧图像的搜索区域和待匹配区域的尺寸,以与当前帧目标对象所在的目标区域的大小相适配,进而可降低背景信息的干扰,提高对目标区域识别的准确性和效率,进而提高对目标对象跟踪的准确性和跟踪效率。
值得说明的是,在图3b和图4中,存储器用于存储计算机程序,并可被配置为存储其它各种数据以支持在其所在的设备上的操作。其中,处理器可执行存储器中存储的计算机程序,以实现相应控制逻辑。存储器可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
在图3b和图4中,通信组件被配置为便于其所在设备和其他设备之间无线方式的通信。无人机或终端设备可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件还可基于近场通信(NFC)模块,射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在图3b和图4中,电源组件被配置为无人机的各种组件提供电力。电源组件可以包括电源管理系统,一个或多个电源,及其他与为电源组件所在设备生成、管理和分配电力相关联的组件。
在图3b和图4中,音频组件可被配置为输出和/或输入音频信号。例如,音频组件包括一个麦克风(MIC),当音频组件所在设备处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器或经由通信组件发送。在一些实施例中,音频组件还包括一个扬声器,用于输出音频信号。
在图4中,显示器可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。
需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (11)
1.一种目标跟踪方法,其特征在于,所述方法包括:
获取无人机采集的当前帧图像,所述当前帧图像包括需要跟踪的目标对象;
根据所述无人机相对所述目标对象的运动情况对基准目标区域进行尺寸调整,以得到当前帧图像中的搜索区域,所述基准目标区域是所述目标对象在上一帧图像中所在的目标区域;
对所述基准目标区域进行至少一次变形处理,得到所述搜索区域中至少一个待匹配区域;
根据所述至少一个待匹配区域的图像特征,从所述至少一个待匹配区域中确定所述目标对象在当前帧图像中所在的目标区域。
2.根据权利要求1所述的方法,其特征在于,所述根据所述无人机相对所述目标对象的运动情况对基准目标区域进行尺寸调整,以得到当前帧图像中的搜索区域,包括:
当所述无人机与所述目标对象之间的距离减小时,对所述基准目标区域的尺寸进行扩展,以得到当前帧图像中的搜索区域;
当所述无人机与所述目标对象之间的距离增大时,对所述基准目标区域进行压缩,以得到当前帧图像的搜索区域。
3.根据权利要求2所述的方法,其特征在于,所述对所述基准目标区域的尺寸进行扩展,包括:
根据公式area0={x0-w0/M,y0-h0/M,w0*M,h0*M},将所述基准目标区域的尺寸扩大为原来的M倍;其中,1<M≤[S0/(w0*h0)];
所述对所述原始目标区域进行压缩,包括:
根据公式area0={x0+w0/N,y0+h0/N,w0/N,h0/N},将所述基准目标区域的尺寸压缩为原来的1/N倍;其中,N>1;
其中,x0和y0分别表示所述原始目标区域的左上顶点在坐标系中的横纵坐标,w0和h0分别表示所述原始目标区域的宽和高;S0表示所述无人机采集到的图像的尺寸;所述坐标系以获取的图像的左上顶点为原点,以所述左上顶点的两条边分别为x轴和y轴。
4.根据权利要求1所述的方法,其特征在于,所述对所述基准目标区域进行至少一次变形处理,得到所述搜索区域中至少一个待匹配区域,包括:
对所述基准目标区域进行伸缩和/或平移变换,以得到所述搜索区域中至少一个待匹配区域;其中,每个待匹配区域的面积小于或等于所述搜索区域的面积。
5.根据权利要求1所述的方法,其特征在于,所述根据所述至少一个待匹配区域的图像特征,从所述至少一个待匹配区域中确定所述目标对象在当前帧图像中的目标区域,包括:
对所述基准目标区域的特征区域进行平移和/或伸缩变换,确定所述至少一个待匹配区域的特征区域;
获取所述至少一个待匹配区域的特征区域的哈尔特征;
根据所述至少一个待匹配区域的特征区域的哈尔特征,从所述至少一个待匹配区域中确定所述目标对象在当前帧图像中的目标区域。
6.根据权利5所述的方法,其特征在于,所述根据所述至少一个待匹配区域的特征区域的哈尔特征,从所述至少一个待匹配区域中确定所述目标对象在当前帧图像中的目标区域,包括:
根据所述至少一个待匹配区域的特征区域的哈尔特征,计算所述至少一个待匹配区域作为所述目标区域的概率值;
将所述至少一个待匹配区域中概率值最大的待匹配区域,作为所述目标区域。
7.根据权利要求5所述的方法,其特征在于,若所述上一帧图像为原始图像,在对所述基准目标区域的特征区域进行平移和/或伸缩变换,确定所述至少一个待匹配区域的特征区域之前,还包括:
根据所述目标对象在所述原始图像中的基准目标区域,获取所述目标对象在所述原始图像中的基准目标区域的特征区域。
8.根据权利要求1-7任一项所述的方法,其特征在于,在采集当前帧图像,所述当前帧图像包括需要跟踪的目标对象之前,还包括:
根据采集到的图像的深度图像特征,确定所述目标对象所在的原始图像,并确定所述目标对象在所述原始图像中的基准目标区域。
9.一种无人机,其特征在于,包括:机械本体以及设置于所述机械本体上的视觉传感器、存储器和处理器;其中,
所述视觉传感器,用于采集当前帧图像,所述当前帧图像包括需要跟踪的目标对象;
所述存储器,用于存储计算机程序;
所述处理器耦合至所述存储器,用于执行所述计算机程序以用于:
获取所述当前帧图像;
根据所述无人机相对所述目标对象的运动情况对基准目标区域进行尺寸调整,以得到当前帧图像中的搜索区域,所述基准目标区域是所述目标对象在上一帧图像中所在的目标区域;
对所述基准目标区域进行至少一次变形处理,得到所述搜索区域中至少一个待匹配区域;
根据所述至少一个待匹配区域的图像特征,从所述至少一个待匹配区域中确定所述目标对象在当前帧图像中所在的目标区域。
10.一种终端设备,其特征在于,包括:存储器、处理器和通信组件;其中,所述存储器,用于存储计算机程序;
所述通信组件,用于接收无人机采集的当前帧图像,所述当前帧图像包括需要跟踪的目标对象;
所述处理器耦合至所述存储器,用于执行所述计算机程序以用于:
根据所述无人机相对所述目标对象的运动情况对基准目标区域进行尺寸调整,以得到当前帧图像中的搜索区域,所述基准目标区域是所述目标对象在上一帧图像中所在的目标区域;
对所述基准目标区域进行至少一次变形处理,得到所述搜索区域中至少一个待匹配区域;
根据所述至少一个待匹配区域的图像特征,从所述至少一个待匹配区域中确定所述目标对象在当前帧图像中所在的目标区域。
11.一种存储有计算机指令的计算机可读存储介质,其特征在于,当所述计算机指令被一个或多个处理器执行时,致使所述一个或多个处理器执行权利要求1-8任一项所述方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811426442.7A CN109741365A (zh) | 2018-11-27 | 2018-11-27 | 目标跟踪方法、无人机、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811426442.7A CN109741365A (zh) | 2018-11-27 | 2018-11-27 | 目标跟踪方法、无人机、终端设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109741365A true CN109741365A (zh) | 2019-05-10 |
Family
ID=66359061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811426442.7A Pending CN109741365A (zh) | 2018-11-27 | 2018-11-27 | 目标跟踪方法、无人机、终端设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109741365A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110955259A (zh) * | 2019-11-28 | 2020-04-03 | 上海歌尔泰克机器人有限公司 | 无人机及其跟踪方法和计算机可读存储介质 |
CN113869163A (zh) * | 2021-09-18 | 2021-12-31 | 北京远度互联科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN113989696A (zh) * | 2021-09-18 | 2022-01-28 | 北京远度互联科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103149940A (zh) * | 2013-03-27 | 2013-06-12 | 清华大学 | 一种结合均值移动与粒子滤波的无人机目标跟踪方法 |
CN106780558A (zh) * | 2016-12-27 | 2017-05-31 | 成都通甲优博科技有限责任公司 | 基于计算机视觉的点生成无人机目标初始跟踪框的方法 |
CN106952284A (zh) * | 2017-03-28 | 2017-07-14 | 歌尔科技有限公司 | 一种基于压缩跟踪算法的特征提取方法及其装置 |
CN107943077A (zh) * | 2017-11-24 | 2018-04-20 | 歌尔股份有限公司 | 一种无人机降落目标的追踪方法、装置和无人机 |
CN108198201A (zh) * | 2017-12-19 | 2018-06-22 | 深圳市深网视界科技有限公司 | 一种多目标跟踪方法、终端设备及存储介质 |
-
2018
- 2018-11-27 CN CN201811426442.7A patent/CN109741365A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103149940A (zh) * | 2013-03-27 | 2013-06-12 | 清华大学 | 一种结合均值移动与粒子滤波的无人机目标跟踪方法 |
CN106780558A (zh) * | 2016-12-27 | 2017-05-31 | 成都通甲优博科技有限责任公司 | 基于计算机视觉的点生成无人机目标初始跟踪框的方法 |
CN106952284A (zh) * | 2017-03-28 | 2017-07-14 | 歌尔科技有限公司 | 一种基于压缩跟踪算法的特征提取方法及其装置 |
CN107943077A (zh) * | 2017-11-24 | 2018-04-20 | 歌尔股份有限公司 | 一种无人机降落目标的追踪方法、装置和无人机 |
CN108198201A (zh) * | 2017-12-19 | 2018-06-22 | 深圳市深网视界科技有限公司 | 一种多目标跟踪方法、终端设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
张雨婷等: "《适应目标尺度变化的改进压缩跟踪算法》", 《模式识别与人工智能》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110955259A (zh) * | 2019-11-28 | 2020-04-03 | 上海歌尔泰克机器人有限公司 | 无人机及其跟踪方法和计算机可读存储介质 |
CN110955259B (zh) * | 2019-11-28 | 2023-08-29 | 上海歌尔泰克机器人有限公司 | 无人机及其跟踪方法和计算机可读存储介质 |
CN113869163A (zh) * | 2021-09-18 | 2021-12-31 | 北京远度互联科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN113989696A (zh) * | 2021-09-18 | 2022-01-28 | 北京远度互联科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN113869163B (zh) * | 2021-09-18 | 2022-08-23 | 北京远度互联科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11727594B2 (en) | Augmented reality for three-dimensional model reconstruction | |
CN110517319B (zh) | 一种相机姿态信息确定的方法及相关装置 | |
WO2020010979A1 (zh) | 手部关键点的识别模型训练方法、识别方法及设备 | |
EP3770854A1 (en) | Target tracking method, apparatus, medium, and device | |
CN110555839A (zh) | 缺陷检测识别方法、装置、计算机设备及存储介质 | |
US20140253592A1 (en) | Method for providing augmented reality, machine-readable storage medium, and portable terminal | |
CN109741365A (zh) | 目标跟踪方法、无人机、终端设备及存储介质 | |
US20140300542A1 (en) | Portable device and method for providing non-contact interface | |
US20150125073A1 (en) | Method and apparatus for processing image | |
CN112528977A (zh) | 目标检测方法、装置、电子设备和存储介质 | |
CN104781849A (zh) | 单眼视觉同时定位与建图(slam)的快速初始化 | |
CN110400304B (zh) | 基于深度学习的物体检测方法、装置、设备及存储介质 | |
CN105190482A (zh) | 缩放手势的检测 | |
US8149281B2 (en) | Electronic device and method for operating a presentation application file | |
CN112749613B (zh) | 视频数据处理方法、装置、计算机设备及存储介质 | |
CN105892633A (zh) | 手势识别方法及虚拟现实显示输出设备 | |
CN103426172A (zh) | 基于视觉的目标跟踪方法及装置 | |
CN104881673A (zh) | 基于信息整合的模式识别的方法和系统 | |
CN113129411A (zh) | 一种仿生动画生成方法及电子设备 | |
CN113971833A (zh) | 多角度的人脸识别方法、装置、计算机主设备及存储介质 | |
CN104252228A (zh) | 显示装置及控制显示装置的方法 | |
CN113761255B (zh) | 机器人室内定位方法、装置、设备及存储介质 | |
EP4268200A1 (en) | Image data annotation system | |
Stokkeland | A computer vision approach for autonomous wind turbine inspection using a multicopter | |
Rehman et al. | Human tracking robotic camera based on image processing for live streaming of conferences and seminars |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190510 |
|
RJ01 | Rejection of invention patent application after publication |