CN108874269B - 一种目标跟踪方法、装置及系统 - Google Patents

一种目标跟踪方法、装置及系统 Download PDF

Info

Publication number
CN108874269B
CN108874269B CN201710335576.7A CN201710335576A CN108874269B CN 108874269 B CN108874269 B CN 108874269B CN 201710335576 A CN201710335576 A CN 201710335576A CN 108874269 B CN108874269 B CN 108874269B
Authority
CN
China
Prior art keywords
area
image
similarity
frame selection
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710335576.7A
Other languages
English (en)
Other versions
CN108874269A (zh
Inventor
郑卫锋
其他发明人请求不公开姓名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Little Shark Intelligent Technology Singapore Ltd
Original Assignee
PowerVision Robot Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PowerVision Robot Inc filed Critical PowerVision Robot Inc
Priority to CN201710335576.7A priority Critical patent/CN108874269B/zh
Publication of CN108874269A publication Critical patent/CN108874269A/zh
Application granted granted Critical
Publication of CN108874269B publication Critical patent/CN108874269B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种目标跟踪方法、装置及系统,用以准确识别图像中的目标物体,提高跟踪的准确性。该方法包括:获取当前跟踪的目标物体的图像;接收点击目标物体的操作,根据所述点击操作确定所述图像中的目标区域;跟踪所述目标区域。由于在本发明实施例中,无人机接收点击目标物体的操作,根据所述点击操作可以确定所述图像中的目标区域,进而跟踪所述目标区域,因此可以保证确定的目标区域的准确性及跟踪的准确性。

Description

一种目标跟踪方法、装置及系统
技术领域
本发明涉及无人机跟踪技术领域,特别涉及一种目标跟踪方法、装置及系统。
背景技术
近十几年来,无人机已被广泛应用于灾情评估、抢险救灾、现场侦察、军事演练等领域,无人机在航空摄影中,如果能快速而准确地获取包含目标物体的图像,即可实现对目标物体的追踪,从而能够更迅速、及时、全面的了解目标物体的现实情况。
在现有的根据包含目标物体的图像,对目标物体进行跟踪时,一般情况下,由用户输入所要跟踪目标物体的位置区域,或者在图像中框选目标物体的位置区域,并将跟踪目标的位置区域发送给无人机,无人机根据接收的目标的位置区域确定目标区域并跟踪。由于现有技术中由用户输入或者框选所要跟踪目标的位置区域,而当目标物体太小,或者目标物体处于运动状态时,用户很难输入或者框选所要跟踪目标的准确的位置区域,增加了用户操作的难度,影响了目标区域确定的准确性,进而影响到跟踪的准确性。
发明内容
本发明实施例公开了一种目标跟踪方法、装置及系统,用以方便用户操作,并且提高跟踪的准确性。
为达到上述目的,本发明实施例公开了一种目标跟踪方法,包括:
获取当前跟踪的目标物体的图像;
接收点击目标物体的操作,根据所述点击操作确定所述图像中的目标区域;
跟踪所述目标区域。
进一步地,所述点击目标物体的操作包括:
在图像显示界面上单击或者双击目标物体。
进一步地,所述方法还包括:
确定图像中的各个区域。
进一步地,所述确定图像中的各个区域包括:
A、针对图像中的每个像素点,采用图像分割算法,确定图像中的框选区域;
B、确定两个相邻框选区域的相似性;
C、识别相似性最大的两个相邻框选区域,判断所述相似性最大的两个相邻框选区域的相似性是否大于设定阈值;
D、如果是,将所述相似性最大的两个相邻框选区域进行合并,并计算合并后的框选区域与其相邻的其他框选区域的相似性,返回C;
E、如果否,则将得到合并后的框选区域作为确定的区域。
进一步地,所述相似性包括以下至少一种:
颜色相似性、纹理相似性和距离相似性。
进一步地,所述确定每两个相邻框选区域的相似性包括:
计算每两个相邻框选区域的颜色相似性权重值、纹理相似性权重值和距离相似性权重值;
根据计算的每两个相邻框选区域的每个相似性对应的权重值,确定每两个相邻框选区域的相似性。
进一步地,根据所述点击操作确定所述图像中的目标区域包括:
识别所述点击对应的显示界面的第一个像素点的坐标;
判断所述坐标是否存在归属的区域;
如果是,且所述坐标只归属于一个区域时,将所述坐标归属的区域作为目标区域;
否则,输出点选目标物体失败的提示信息。
另一方面,本发明实施例提供了一种目标跟踪装置,所述装置包括:
获取模块,用于获取当前跟踪的目标物体的图像;
接收确定模块,用于接收点击目标物体的操作,根据所述点击操作确定所述图像中的目标区域;
跟踪模块,用于跟踪所述目标区域。
进一步地,所述装置还包括:
确定模块,用于自动确定图像中的各个区域;
所述确定模块包括:
第一确定单元,用于针对图像中的每个像素点,采用图像分割算法,确定图像中的框选区域;
第二确定单元,用于确定两个相邻框选区域的相似性;
判断单元,用于识别相似性最大的两个相邻框选区域,判断所述相似性最大的两个相邻框选区域的相似性是否大于设定阈值,如果是,触发合并单元,如果否,触发第三确定单元;
合并单元,用于将所述相似性最大的两个相邻框选区域进行合并,并计算合并后的框选区域与其相邻的其他框选区域的相似性,触发判断单元;
第三确定单元,用于将得到的合并后的框选区域作为确定的区域。
再一方面,本发明实施例提供了一种目标跟踪系统,所述目标跟踪系统包括应用于无人机的目标跟踪装置,及移动终端;
所述移动终端用于接收无人机下传的目标物体的图像,以及用户在图像上的点击操作,并根据点击操作向无人机上传指令。
本发明实施例提供了一种目标跟踪方法、装置及系统,该方法包括:获取当前跟踪的目标物体的图像;接收点击目标物体的操作,根据所述点击操作确定所述图像中的目标区域;跟踪所述目标区域。由于在本发明实施例中,无人机可以获取当前跟踪的目标物体的图像,接收点击目标物体的操作,根据所述点击操作可以确定所述图像中的目标区域,进而跟踪所述目标区域,而不需要在图像上手动画框进而确定目标区域,因此对于较小的目标物体或者处于运动状态的目标物体,可以保证确定的目标区域的准确性及跟踪的准确性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例1提供的一种目标跟踪过程示意图;
图2为本发明实施例2提供的无人机获取的当前跟踪的目标物体的图像示意图;
图3为本发明实施例2提供的确定图像中的框选区域示意图;
图4为本发明实施例2提供的确定图像中的各个区域后的图像示意图;
图5为本发明实施例2提供的确定图像中的目标区域示意图;
图6为本发明实施例2提供的无人机跟踪目标物体时的图像示意图;
图7为本发明实施例2提供的确定图像中的各个区域过程示意图;
图8为本发明实施例3提供的图像中的各个区域示意图;
图9为本发明实施例提供的一种目标跟踪装置结构示意图;
图10为本发明实施例提供的一种目标跟踪系统结构示意图。
具体实施方式
为了准确识别图像中的目标物体,提高跟踪的准确性,本发明实施例提供了一种目标跟踪方法、装置及系统。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
图1为本发明实施例提供的一种目标跟踪过程示意图,该过程包括以下步骤:
S101:获取当前跟踪的目标物体的图像。
本发明实施例提供的目标跟踪方法应用于无人机。无人机在对当前跟踪的目标物体跟踪的过程中,获取当前跟踪的目标物体的图像。
本发明实施例的无人机上设置有云台,云台可以绕转轴相对于无人机本体360度旋转,在云台上设置至少一台图像采集设备,图像采集设备也可以通过转轴在云台上转动。所述图像采集设备可以实时进行图像采集,图像采集设备当前采集的图像即为无人机获取的当前跟踪的包含目标物体的图像。
S102:接收点击目标物体的操作,根据所述点击操作确定所述图像中的目标区域。
获取当前跟踪的目标物体的图像后,接收点击目标物体的操作,其中,无人机可以将所述图像发送到移动终端,移动终端将该图像显示在界面上,用户可以在移动终端的界面上进行点击目标物体的操作,移动终端将点击目标物体的操作发送到无人机,具体的该点击目标物体的操作的坐标信息可以携带在移动终端发送给无人机的指令中。其中点击目标物体的操作可以为在图像显示界面上单击或者双击目标物体的操作,进而使无人机获取所述点击目标物体的操作。
具体的,移动终端在识别每种点击操作时,可以根据用户对移动终端屏幕的按压、点击、双击操作进行识别,并根据识别的结果判断是否为点击目标物体的操作。
在本发明实施例中在无人机中保存有自身显示屏与移动终端显示屏的大小关系,无人机根据该大小关系,即可根据用户在移动终端的界面上进行点击目标物体的操作对应的区域,确定出获取的当前跟踪的目标物体的图像中所述操作对应的区域。
由于在本发明实施例中通过在图像显示界面上单击或者双击目标物体确定目标区域,使得对目标区域的确定更加方便和准确,尤其是目标物体很小,或者目标物体处于运动状态时,通过单击或者双击目标物体确定目标区域显得更为方便。
S103:跟踪所述目标区域。
无人机在确定目标物体在图像中的目标区域后,对所述目标区域进行跟踪。
由于在本发明实施例中,无人机可以获取当前跟踪的目标物体的图像,接收点击目标物体的操作,根据所述点击操作可以确定所述图像中的目标区域,进而跟踪所述目标区域,而不需要在图像上手动画框进而确定目标区域,因此对于较小的目标物体或者处于运动状态的目标物体,可以保证确定的目标区域的准确性及跟踪的准确性。
实施例2:
为了使确定图像中的目标区域更准确,在上述实施例的基础上,在本发明实施例中,所述获取当前跟踪的目标物体的图像之后,接收点击目标物体的操作之前,所述方法还包括:
确定图像中的各个区域。
无人机在获取当前跟踪的目标物体的图像之后,可以自动确定出图像中的各个区域,在确定出图像中的各个区域后,接收点击目标物体的操作,根据所述点击目标物体的操作对应的图像中的区域,可以确定出目标区域。
在本发明实施例中,所述确定图像中的各个区域包括:
A、针对图像中的每个像素点,采用图像分割算法,确定图像中的框选区域;
B、确定两个相邻框选区域的相似性;
C、识别相似性最大的两个相邻框选区域,判断所述相似性最大的两个相邻框选区域的相似性是否大于设定阈值;
D、如果是,将所述相似性最大的两个相邻框选区域进行合并,并计算合并后的框选区域与其相邻的其他框选区域的相似性,返回C;
E、如果否,则将得到合并后的框选区域作为确定的区域。
无人机针对获取的当前跟踪的目标物体的图像中的每个像素点,采用图像分割算法可以确定图像中的框选区域。具体的,在确定图像中的框选区域时,可以首先认为图像中的一个像素点即为一个区域,然后根据图像中任意两个相邻区域的区域内间距和区域间间距,依次对图像中的区域进行合并,得到图像中的框选区域。无人机获取的当前跟踪的目标物体的图像如图2所示,针对图像中的每个像素点,采用图像分割算法确定图像中的框选区域如图3所示,如图3所示,针对图像中的每个像素点,将图像中的一个像素点作为一个区域,根据图像中任意两个相邻区域的区域内间距和区域间间距,依次对图像中的区域进行合并,获得图3所示的多个区域。
根据图像中确定的两个相邻的框选区域,可以确定两个框选区域的相似性,在确定的每两个相邻的框选区域的相似性中识别相似性最大的两个相邻框选区域。无人机中预先设定有阈值,判断所述相似性最大的两个相邻框选区域的相似性是否大于设定阈值,当所述识别相似性最大的两个相邻框选区域的相似性大于设定阈值时,将所述相似性最大的两个相邻框选区域进行合并。
具体的,针对图像中每两个相邻框选区域,确定每两个相邻框选区域的相似性,并将每两个相邻框选区域的相似性保存在集合S中,在集合S中识别最大的相似性,判断所述相似性是否大于设定阈值,如果是,将所述最大的相似性对应的两个相邻框选区域进行合并,并将所有与所述进行合并的两个相邻框选区域相关的数据从集合S中移走。将所述相似性最大的两个相邻区域合并后,重新确定图像中每两个相邻框选区域的相似性,并根据重新确定的每两个相邻框选区域的相似性,将重新确定的相似性保存到S集合中,对S集合进行更新,在更新后的集合S中识别最大的相似性,判断该最大的相似性是否大于设定阈值,如果是,将最大的相似性对应的两个相邻框选区域进行合并,并将所有与所述进行合并的两个相邻框选区域相关的数据从集合S中移走。重复上述过程,直至集合S中的最大的相似性不大于设定阈值,此时,将集合S中的相似性对应的每个框选区域作为确定的区域。
图4为在图3的基础上,根据两个框选区域的相似性,对相似性大于设定阈值的两个框选区域进行合并后得到的图像。
在确定图像中的各个区域后,根据接收的点击目标物体的操作,确定所述图像中的目标区域,如图5所示,用户点击目标物体的操作对应的位置为图5中的黑色圆点,无人机将所述黑色圆点归属的区域确定为图像中的目标区域。
在确定目标区域后,无人机锁定目标区域内的目标物体,如图6所示,实时获取图像并更新,并对目标物体进行跟踪。
下面对确定每两个相邻框选区域的相似性的过程进行详细说明。
无人机可以确定每两个相邻框选区域的相似性,在本发明实施例中,所述相似性包括以下至少一种:
颜色相似性、纹理相似性和距离相似性。
无人机可以只根据颜色相似性、纹理相似性和距离相似性中的任意一种确定每两个相邻框选区域的相似性;或者也可以根据颜色相似性、纹理相似性和距离相似性中的任意两种确定每两个相邻框选区域的相似性;较佳的,为了使确定的每两个相邻框选区域的相似性更加准确,可以同时根据颜色相似性、纹理相似性和距离相似性来确定每两个相邻框选区域的相似性。
当所述相似性包括颜色相似性、纹理相似性和距离相似性时,所述确定每两个相邻框选区域的相似性包括:
计算每两个相邻框选区域的颜色相似性权重值、纹理相似性权重值和距离相似性权重值;
根据计算的每两个相邻框选区域的每个相似性对应的权重值,确定每两个相邻框选区域的相似性。
可以根据下式计算每两个相邻框选区域的颜色相似性:
Figure GDA0002698116120000091
式中:n为划分的颜色直方图中对应的区间范围总数量;
Figure GDA0002698116120000092
为框选区域ri,rj在颜色直方图中对应的第k个区间范围内的像素点的数量,其中,颜色直方图是针对每个框选区域的R、G、B三个颜色通道的每个通道确定的;Scolour(ri,rj)为框选区域ri,rj的颜色相似性。
具体的,针对每两个相邻框选区域,根据所述两个相邻框选区域中的像素点的红R、绿G、蓝B值,针对每个框选区域的R、G、B三个颜色通道的每个通道,可以确定一个颜色直方图。例如,针对每个通道,划分为25个区间范围,使每个区间范围包含的像素值的数量尽可能相同,如第一个区间范围包含的像素值为0-10,第二个区间范围包含的像素值为11-20,……,第25个区间范围包含的像素值为241-255,并保证每个直方图的区间范围划分一致。这样,针对三个颜色通道,得到3×25=75个区间,针对所述两个相邻框选区域得到的颜色直方图,针对每个区间范围,确定所述两个相邻框选区域中分别位于该区间范围的像素点数量中的较小值,将得到的每个区间范围内的像素点数量中的较小值相加,得到所述两个相邻框选区域的颜色相似性。
例如,针对某个区间范围,框选区域i中位于该区间范围的像素点数量为20个,框选区域j中位于该区间范围的像素点数量为30个,则确定所述两个框选区域i和j中分别位于该区间范围的像素点数量中的较小值为20。依次可以确定出每个区间范围内的像素点数量中的较小值,将得到的每个区间范围内的像素点数量中的较小值相加,得到所述两个相邻框选区域的颜色相似性。
可以根据下式计算每两个相邻框选区域的纹理相似性:
Figure GDA0002698116120000093
式中:n为划分的纹理直方图中对应的区间范围总数量;
Figure GDA0002698116120000094
为框选区域ri,rj在纹理直方图中对应的第k个区间范围内的像素点的数量,其中,纹理直方图是通过取8个方向,10个空间确定的;Stexture(ri,rj)为框选区域ri,rj的纹理相似性。
具体的,在计算两个相邻框选区域的纹理相似性时,可以取8个方向,10个空间的纹理直方图,针对R、G、B三个颜色通道,得到3×8×10=240个区间范围,针对所述两个相邻框选区域得到的纹理直方图,针对每个区间范围,确定所述两个相邻框选区域中分别位于该区间范围的像素点数量中的较小值,将得到的每个区间范围内的像素点数量中的较小值相加,得到所述两个相邻框选区域的纹理相似性。
可以根据下式计算每两个相邻框选区域的距离相似性:
Figure GDA0002698116120000101
式中:size(ri),size(rj)分别为框选区域ri,rj中的像素点的数量;size(im)为图像中的像素点的总数量;Ssize(ri,rj)为框选区域ri,rj的距离相似性。
具体的,在计算两个相邻框选区域的距离相似性时,确定所述两个相邻框选区域中每个框选区域的像素点的数量,及所述图像中的像素点的总数量,确定所述两个相邻框选区域内的像素点的数量和与所述图像中的像素点的总数量的比值,将1与所述比值的差作为两个相邻框选区域的距离相似性。
根据所述计算的每两个相邻框选区域的每个相似性,可以确定每个相似性对应的权重值,例如相似性越大,其对应的权重值确定。根据所述计算的每两个相邻框选区域的每个相似性及其对应的权重值,可以确定每两个相邻框选区域的相似性。
另外,为了使有相交和包含关系的框选区域优先进行合并,还可以根据下式计算每两个相邻框选区域的相互包含度:
Figure GDA0002698116120000102
式中:size(ri),size(rj)分别为框选区域ri,rj中的像素点的数量;size(im)为图像中的像素点的总数量;size(BBij)为框选区域ri,rj的最小外包区域中的像素点的数量;fill(ri,rj)为框选区域ri,rj的相互包含度。
具体的,在计算两个相邻框选区域的相互包含度时,确定所述相邻两个框选区域中每个框选区域的像素点的数量、所述两个相邻框选区域的最小外包区域中的像素点的数量,及所述图像中的像素点的总数量,确定所述两个相邻框选区域的最小外包区域中的像素点的数量减去所述两个相邻框选区域的每个框选区域的像素点的数量与所述图像中的像素点的总数量的比值,将1与所述比值的差作为两个相邻框选区域的相互包含度。
根据所述确定的每两个相邻框选区域的颜色相似性、纹理相似性、距离相似性及两个相邻框选区域的相互包含度和其分别对应的权重值,确定每两个相邻框选区域的相似性。确定每两个相邻框选区域的相似性的公式如下:
S(ri,rj)=α1Scolour(ri,rj)+α2Stexture(ri,rj)+α3Ssize(ri,rj)+α4fill(ri,rj)
式中:Scolour(ri,rj)为框选区域ri,rj的颜色相似性;
Stexture(ri,rj)为框选区域ri,rj的纹理相似性;
Ssize(ri,rj)为框选区域ri,rj的距离相似性;
Ssize(ri,rj)为框选区域ri,rj的相互包含度;
α1,α2,α3,α4分别为框选区域ri,rj的颜色相似性、纹理相似性、距离相似性及相互包含度对应的权重值;S(ri,rj)为框选区域ri,rj的相似性。
无人机中预先设定有阈值,当相似性最大的两个相邻框选区域的相似性大于设定阈值时,将所述两个相邻框选区域进行合并。
由于在本发明实施例中,通过计算每两个相邻框选区域的颜色相似性权重值、纹理相似性权重值和距离相似性权重值,进而确定每两个相邻框选区域的相似性,将相似性最大的两个相邻框选区域的相似性大于设定阈值的两个框选区域进行合并。因此使得根据每两个相邻框选区域的相似性,对框选区域进行合并更加准确。
图7为本发明实施例提供的确定图像中的各个区域过程示意图,该过程包括以下步骤:
S701:针对图像中的每个像素点,采用图像分割算法,确定图像中的框选区域。
S702:确定每两个相邻框选区域的相似性,将每两个相邻框选区域的相似性保存在集合S中。
S703:在集合S中识别最大的相似性,判断最大的相似性是否大于设定阈值,如果是,进行S704,如果否,进行S705。
S704:将最大的相似性对应的两个相邻框选区域进行合并,将所有与进行合并的两个相邻框选区域相关的数据从集合S中移走,重新确定图像中该合并后的框选区域与相邻框选区域的相似性,并根据重新确定的每两个相邻框选区域的相似性对S集合中的相似性进行更新,返回S703。
S705:将集合S中的相似性对应的每个框选区域作为确定的区域。
实施例3:
为了使确定的目标区域更加准确,在上述各实施例的基础上,在本发明实施例中,所述根据所述点击操作确定所述图像中的目标区域包括:
识别所述点击对应的显示界面的第一个像素点的坐标;
判断所述坐标是否存在归属的区域;
如果是,且所述坐标只归属于一个区域时,将所述坐标归属的区域作为目标区域;
否则,输出点选目标物体失败的提示信息。
在根据所述点击操作确定所述图像中的目标区域时,无人机可以识别所述点击操作对应的显示界面的第一个像素点的坐标,由于在图像中已经确定了合并后的区域,合并后的区域中的像素点的坐标无人机是可以识别的,因此,无人机可以判断所述点击操作对应的显示界面的第一个像素点的坐标是否存在归属的区域。即如果所述第一个像素点的坐标与图像中合并后的区域中的像素点的坐标存在重合时,则说明所述第一个像素点的坐标存在归属的区域;否则,则说明不存在归属的区域。
由于无人机跟踪的目标区域一般为一个区域,而根据上述实施例中公开的方法确定出图像中的区域后,图像中的区域可能存在交叉的情况。因此,如果所述第一个像素点的坐标存在归属的区域,判断所述坐标归属的区域是否只有一个区域,如果是,则将所述坐标归属的区域确定为目标区域。如果所述坐标归属的区域不止一个区域,即此时所述坐标位于至少两个区域的交叉范围内;或者所述坐标不存在归属的区域,即所述坐标位于图像中的区域之外时,则输出点选目标失败的提示信息。所述提示信息可以为语音信息或者文字信息等。
另外,根据上述实施例中公开的方法确定出图像中的区域后,图像中的区域可能存在相互包含的情况,例如图像中一个较大的区域包含一个较小的区域,此时,如果所述第一个像素点的坐标归属于较小的区域内,则将所述较小的区域作为目标区域;如果所述第一个像素点的坐标归属于较小的区域外,较大的区域内,则将所述较大的区域作为目标区域。
如图8所示,图像中确定有5个区域,分别为区域1、区域2、区域3、区域4和区域5,其中区域1包含于区域2。如果所述第一个像素点的坐标归属于区域1,则将区域1作为目标区域;如果所述第一个像素点的坐标归属于区域1之外,区域2之内,则将区域2作为目标区域;如果所述第一个像素点的坐标归属于区域3,则将区域3作为目标区域。而如果所述第一个像素点的坐标不归属于图像中区域1、区域2、区域3、区域4和区域5中的任何一个,则输出点选目标物体失败的提示信息。
由于在本发明实施例中,无人机通过识别所述点击对应的显示界面的第一个像素点的坐标,当判断所述坐标存在归属的区域,并且所述坐标只归属于一个区域时,将所述坐标归属的区域作为目标区域,否则输出点选目标物体失败的提示信息,因此使得确定的目标区域更加准确。
图9为本发明实施例提供的一种目标跟踪装置结构示意图,该装置包括:
获取模块91,用于获取当前跟踪的目标物体的图像;
接收确定模块92,用于接收点击目标物体的操作,根据所述点击操作确定所述图像中的目标区域;
跟踪模块93,用于跟踪所述目标区域。
所述装置还包括:
确定模块94,用于自动确定图像中的各个区域。
所述确定模块94包括:
第一确定单元941,用于针对图像中的每个像素点,采用图像分割算法,确定图像中的框选区域;
第二确定单元942,用于确定两个相邻框选区域的相似性;
判断单元943,用于识别相似性最大的两个相邻框选区域,判断所述相似性最大的两个相邻框选区域的相似性是否大于设定阈值,如果是,触发合并单元944,如果否,触发第三确定单元945;
合并单元944,用于将所述相似性最大的两个相邻框选区域进行合并,并计算合并后的框选区域与其相邻的其他框选区域的相似性,触发判断单元943;
第三确定单元945,用于将得到的合并后的框选区域作为确定的区域。
所述第二确定单元942,具体用于计算每两个相邻框选区域的颜色相似性权重值、纹理相似性权重值和距离相似性权重值;根据计算的每两个相邻框选区域的每个相似性对应的权重值,确定每两个相邻框选区域的相似性。
所述接收确定模块92,具体用于识别所述点击操作对应的显示界面的第一个像素点的坐标;判断所述坐标是否存在归属的区域;如果是,且所述坐标只归属于一个区域时,将所述坐标归属的区域作为目标区域;否则,输出点选目标物体失败的提示信息。
图10为本发明实施例提供的一种目标跟踪系统结构示意图,所述目标跟踪系统包括应用于无人机101的目标跟踪装置,及移动终端102;所述移动终端102,用于接收无人机下传的目标物体的图像,以及用户在图像上的点击操作,并根据点击操作向无人机上传指令。
本发明实施例提供了一种目标跟踪方法、装置及系统,该方法包括:获取当前跟踪的目标物体的图像;接收点击目标物体的操作,根据所述点击操作确定所述图像中的目标区域;跟踪所述目标区域。由于在本发明实施例中,无人机可以获取当前跟踪的目标物体的图像,接收点击目标物体的操作,根据所述点击操作可以确定所述图像中的目标区域,进而跟踪所述目标区域,而不需要在图像上手动画框进而确定目标区域,因此对于较小的目标物体或者处于运动状态的目标物体,可以保证确定的目标区域的准确性及跟踪的准确性。
对于系统/装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (4)

1.一种目标跟踪方法,其特征在于,应用于无人机,该方法包括:
获取当前跟踪的目标物体的图像;
接收点击目标物体的操作,根据点击操作确定所述图像中的目标区域;
跟踪所述目标区域;
根据所述点击操作确定所述图像中的目标区域包括:
识别所述点击操作对应的显示界面的第一个像素点的坐标;
判断所述坐标是否存在归属的区域;
如果是,且所述坐标只归属于一个区域时,将所述坐标归属的区域作为目标区域;
否则,输出点选目标物体失败的提示信息;
若图像中一个较大的区域包含一个较小的区域,如果所述第一个像素点的坐标归属于较小的区域内,则将所述较小的区域作为目标区域;如果所述第一个像素点的坐标归属于较小的区域外,较大的区域内,则将所述较大的区域作为目标区域;
所述获取当前跟踪的目标物体的图像之后,接收点击目标物体的操作之前,所述方法还包括:
确定图像中的各个区域;
其中,确定图像中的各个区域包括:
A、针对图像中的每个像素点,采用图像分割算法,确定图像中的框选区域;
B、确定两个相邻框选区域的相似性;
C、识别相似性最大的两个相邻框选区域,判断所述相似性最大的两个相邻框选区域的相似性是否大于设定阈值;
D、如果是,将所述相似性最大的两个相邻框选区域进行合并,并计算合并后的框选区域与其相邻的其他框选区域的相似性,返回C;
E、如果否,则将得到合并后的框选区域作为确定的区域;
所述确定两个相邻框选区域的相似性包括:
根据所述两个相邻框选区域的颜色相似性、纹理相似性、距离相似性及两个相邻框选区域的相互包含度和其分别对应的权重值,确定两个相邻框选区域的相似性;
其中,根据下式计算两个相邻框选区域的相互包含度:
Figure FDA0002723271820000021
式中:size(ri),size(rj)分别为框选区域ri,rj中的像素点的数量;size(im)为图像中的像素点的总数量;size(BBij)为框选区域ri,rj的最小外包区域中的像素点的数量;fill(ri,rj)为框选区域ri,rj的相互包含度。
2.根据权利要求1所述的方法,其特征在于,所述点击目标物体的操作包括:
在图像显示界面上单击或者双击目标物体。
3.一种目标跟踪装置,其特征在于,所述装置包括:
获取模块,用于获取当前跟踪的目标物体的图像;
接收确定模块,用于接收点击目标物体的操作,根据点击操作确定所述图像中的目标区域;
跟踪模块,用于跟踪所述目标区域;
根据所述点击操作确定所述图像中的目标区域包括:
识别所述点击操作对应的显示界面的第一个像素点的坐标;
判断所述坐标是否存在归属的区域;
如果是,且所述坐标只归属于一个区域时,将所述坐标归属的区域作为目标区域;
否则,输出点选目标物体失败的提示信息;
若图像中一个较大的区域包含一个较小的区域,如果所述第一个像素点的坐标归属于较小的区域内,则将所述较小的区域作为目标区域;如果所述第一个像素点的坐标归属于较小的区域外,较大的区域内,则将所述较大的区域作为目标区域;
所述装置还包括:
确定模块,用于自动确定图像中的各个区域;
所述确定模块包括:
第一确定单元,用于针对图像中的每个像素点,采用图像分割算法,确定图像中的框选区域;
第二确定单元,用于确定两个相邻框选区域的相似性;
判断单元,用于识别相似性最大的两个相邻框选区域,判断所述相似性最大的两个相邻框选区域的相似性是否大于设定阈值,如果是,触发合并单元,如果否,触发第三确定单元;
合并单元,用于将所述相似性最大的两个相邻框选区域进行合并,并计算合并后的框选区域与其相邻的其他框选区域的相似性,触发判断单元;
第三确定单元,用于将得到的合并后的框选区域作为确定的区域;
其中,确定两个相邻框选区域的相似性包括:
根据所述两个相邻框选区域的颜色相似性、纹理相似性、距离相似性及两个相邻框选区域的相互包含度和其分别对应的权重值,确定两个相邻框选区域的相似性;
其中,根据下式计算两个相邻框选区域的相互包含度:
Figure FDA0002723271820000031
式中:size(ri),size(rj)分别为框选区域ri,rj中的像素点的数量;size(im)为图像中的像素点的总数量;size(BBij)为框选区域ri,rj的最小外包区域中的像素点的数量;fill(ri,rj)为框选区域ri,rj的相互包含度。
4.一种目标跟踪系统,其特征在于,所述目标跟踪系统包括如权利要求3所述的目标跟踪装置,及移动终端;
所述移动终端用于接收无人机下传的目标物体的图像,以及用户在图像上的点击操作,并根据点击操作向无人机上传指令。
CN201710335576.7A 2017-05-12 2017-05-12 一种目标跟踪方法、装置及系统 Active CN108874269B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710335576.7A CN108874269B (zh) 2017-05-12 2017-05-12 一种目标跟踪方法、装置及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710335576.7A CN108874269B (zh) 2017-05-12 2017-05-12 一种目标跟踪方法、装置及系统

Publications (2)

Publication Number Publication Date
CN108874269A CN108874269A (zh) 2018-11-23
CN108874269B true CN108874269B (zh) 2020-12-29

Family

ID=64320278

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710335576.7A Active CN108874269B (zh) 2017-05-12 2017-05-12 一种目标跟踪方法、装置及系统

Country Status (1)

Country Link
CN (1) CN108874269B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110046009B (zh) * 2019-02-19 2022-08-23 创新先进技术有限公司 录制方法、装置、服务器及可读存储介质
WO2021189448A1 (zh) * 2020-03-27 2021-09-30 深圳市大疆创新科技有限公司 目标跟踪方法、目标跟踪装置、可移动平台和存储介质
WO2022094772A1 (zh) * 2020-11-03 2022-05-12 深圳市大疆创新科技有限公司 位置估计方法、跟随控制方法、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101231755A (zh) * 2007-01-25 2008-07-30 上海遥薇实业有限公司 运动目标跟踪及数量统计方法
CN104899590A (zh) * 2015-05-21 2015-09-09 深圳大学 一种无人机视觉目标跟随方法及系统
CN105354576A (zh) * 2015-09-30 2016-02-24 上海圣尧智能科技有限公司 一种目标特征提取的方法、目标特征提取模块、目标模型创建模块以及智能图像监控装置
CN105787481A (zh) * 2016-04-05 2016-07-20 湖南人文科技学院 一种基于目标性潜在区域分析的目标检测算法及其应用
CN105931263A (zh) * 2016-03-31 2016-09-07 纳恩博(北京)科技有限公司 一种目标跟踪方法及电子设备
KR101703515B1 (ko) * 2015-05-19 2017-02-07 국방과학연구소 영상의 표적 추적 장치 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104203065B (zh) * 2012-03-08 2017-04-12 奥林巴斯株式会社 图像处理装置和图像处理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101231755A (zh) * 2007-01-25 2008-07-30 上海遥薇实业有限公司 运动目标跟踪及数量统计方法
KR101703515B1 (ko) * 2015-05-19 2017-02-07 국방과학연구소 영상의 표적 추적 장치 및 방법
CN104899590A (zh) * 2015-05-21 2015-09-09 深圳大学 一种无人机视觉目标跟随方法及系统
CN105354576A (zh) * 2015-09-30 2016-02-24 上海圣尧智能科技有限公司 一种目标特征提取的方法、目标特征提取模块、目标模型创建模块以及智能图像监控装置
CN105931263A (zh) * 2016-03-31 2016-09-07 纳恩博(北京)科技有限公司 一种目标跟踪方法及电子设备
CN105787481A (zh) * 2016-04-05 2016-07-20 湖南人文科技学院 一种基于目标性潜在区域分析的目标检测算法及其应用

Also Published As

Publication number Publication date
CN108874269A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
CN109886997B (zh) 基于目标检测的识别框确定方法、装置及终端设备
CN106940704B (zh) 一种基于栅格地图的定位方法及装置
US9569854B2 (en) Image processing method and apparatus
CN110097586B (zh) 一种人脸检测追踪方法及装置
US10825187B2 (en) Method and system for object tracking
CN111080526B (zh) 航拍图像的农田面积的测算方法、装置、设备及介质
CN106683100B (zh) 一种图像分割去雾方法及终端
CN106570909B (zh) 一种肤色检测方法、装置及终端
CN108961158B (zh) 一种图像合成方法及装置
CN108874269B (zh) 一种目标跟踪方法、装置及系统
CN107248174A (zh) 一种基于tld算法的目标跟踪方法
CN111340749B (zh) 图像质量的检测方法、装置、设备及存储介质
US10803596B2 (en) Fully automated alpha matting for virtual reality systems
WO2018082388A1 (zh) 一种肤色检测方法、装置及终端
CN105069453A (zh) 一种图像校正方法及装置
CN110781770B (zh) 基于人脸识别的活体检测方法、装置及设备
CN105118027A (zh) 一种图像的去雾方法
CN108109148A (zh) 图像立体分配方法、移动终端
US20150249774A1 (en) Ghost artifact detection and removal in hdr image creation using graph based selection of local reference
CN113112542A (zh) 一种视觉定位方法、装置、电子设备及存储介质
CN111798374A (zh) 一种图像拼接方法、装置、设备及介质
CN110599532A (zh) 图像的深度估计模型优化、深度估计处理方法及装置
Kim et al. Loop-net: Joint unsupervised disparity and optical flow estimation of stereo videos with spatiotemporal loop consistency
CN112818932A (zh) 图像处理方法、障碍物检测方法、装置、介质及车辆
CN116363628A (zh) 标志检测方法、装置、非易失性存储介质及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 264200 Zone E, blue venture Valley, No. 40, Yangguang Road, Nanhai new area, Weihai City, Shandong Province

Patentee after: Zhendi Technology Co.,Ltd.

Address before: 100086 3rd floor, block a, Zhizhen building, 7 Zhichun Road, Haidian District, Beijing

Patentee before: POWERVISION TECH Inc.

CP03 Change of name, title or address
TR01 Transfer of patent right

Effective date of registration: 20231025

Address after: 1st Floor, Building 33, Yunguyuan, No. 79 Shuangying West Road, Science and Technology Park, Changping District, Beijing 102200

Patentee after: PowerVision Robot Inc.

Address before: 264200 Zone E, blue venture Valley, No. 40, Yangguang Road, Nanhai new area, Weihai City, Shandong Province

Patentee before: Zhendi Technology Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240415

Address after: 120 Robinson Road, Singapore # 13-01

Patentee after: Little Shark Intelligent Technology (Singapore) Ltd.

Country or region after: Singapore

Address before: 1st Floor, Building 33, Yunguyuan, No. 79 Shuangying West Road, Science and Technology Park, Changping District, Beijing 102200

Patentee before: PowerVision Robot Inc.

Country or region before: China

TR01 Transfer of patent right