CN112634316A - 目标跟踪方法、装置、设备和存储介质 - Google Patents
目标跟踪方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN112634316A CN112634316A CN202011616387.5A CN202011616387A CN112634316A CN 112634316 A CN112634316 A CN 112634316A CN 202011616387 A CN202011616387 A CN 202011616387A CN 112634316 A CN112634316 A CN 112634316A
- Authority
- CN
- China
- Prior art keywords
- target
- video frame
- tracked
- historical
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明适用于计算机技术领域,提供了一种目标跟踪方法、装置、设备和存储介质,其中,目标跟踪方法包括:获取包含有待跟踪目标的视频的目标视频帧;根据待跟踪目标的标记信息对目标视频帧进行滤波,得到待跟踪目标位于目标视频帧中各个位置的置信度数据;根据待跟踪目标在历史视频帧中的历史位置信息,预测待跟踪目标在目标视频帧中的运动目标位置;在置信度数据满足无遮挡条件的情况下,构建以运动目标位置为中心的高斯矩阵,并根据高斯矩阵和置信度数据,在目标视频帧中确定待跟踪目标的搜索中心;根据搜索中心和预设搜索区域尺寸,从目标视频帧中截取搜索区域,并在搜索区域中提取待跟踪目标的位置信息。采用本发明可以提高跟踪性能。
Description
技术领域
本发明属于计算机技术领域,尤其涉及一种目标跟踪方法、装置、设备和存储介质。
背景技术
视频目标跟踪是计算机视觉中的一个重要方向,主要研究如何根据视频中的参考视频帧给出的待跟踪目标的信息,在视频帧中连续提取待跟踪目标的位置,从而得到待跟踪目标的运动轨迹,如图1所示,可以通过跟踪装置,对待跟踪的视频帧进行跟踪,得到待跟踪目标的运动轨迹。视频目标跟踪在日常生活中有很多应用,例如无人驾驶、视频监控、人机交互等。
然而,当待跟踪目标运动过快时,现有的视频目标跟踪方法对待跟踪目标进行跟踪时,可能会出现跟踪失败的问题。
发明内容
有鉴于此,本发明实施例提供了一种目标跟踪方法、装置、设备和存储介质,以解决现有技术中由待跟踪目标运动过快带来的跟踪失败的问题。
本发明实施例的第一方面提供了一种目标跟踪方法,包括:
获取包含有待跟踪目标的视频的目标视频帧;
根据待跟踪目标的标记信息对目标视频帧进行滤波,得到待跟踪目标位于目标视频帧中各个位置的置信度数据;
根据待跟踪目标在历史视频帧中的历史位置信息,预测待跟踪目标在目标视频帧中的运动目标位置;历史视频帧为视频中位于目标视频帧之前的视频帧;
在置信度数据满足无遮挡条件的情况下,构建以运动目标位置为中心的高斯矩阵,并根据高斯矩阵和置信度数据,在目标视频帧中确定待跟踪目标的搜索中心;
根据搜索中心和预设搜索区域尺寸,从目标视频帧中截取搜索区域,并在搜索区域中提取待跟踪目标的位置信息。
可选的,根据待跟踪目标的标记信息对目标视频帧进行滤波,包括:
获取参考视频帧中的待跟踪目标的标记信息;参考视频帧为目标视频帧的前一个历史视频帧;
根据参考视频帧中的待跟踪目标的标记信息,对基于相关滤波的跟踪器进行训练,得到第一滤波器;
采用第一滤波器对目标视频帧进行滤波。
可选的,根据待跟踪目标的标记信息对目标视频帧进行滤波,包括:
获取参考视频帧中的待跟踪目标的标记信息;参考视频帧为目标视频帧的前一个历史视频帧;
根据参考视频帧中的待跟踪目标的标记信息,对基于相关滤波的跟踪器进行训练,得到第二滤波器;
对第二滤波器和第三滤波器进行平滑处理,得到第四滤波器;第三滤波器为对前一个历史视频帧进行滤波的滤波器;
采用第四滤波器对目标视频帧进行滤波。
可选的,根据待跟踪目标在历史视频帧中的历史位置信息,预测待跟踪目标在目标视频帧中的运动目标位置,包括:
获取待跟踪目标在历史视频帧中的历史位置信息;
将待跟踪目标在历史视频帧中的历史位置信息,输入至多输入单输出的预设循环神经网络模型,得到待跟踪目标在目标视频帧中的运动目标位置。
可选的,在将待跟踪目标在历史视频帧中的历史位置信息,输入至多输入单输出的预设循环神经网络模型之前,方法还包括:
获取测试视频中连续的N+1个视频帧;N+1个视频帧均包括测试目标的位置信息,N为正整数;
将N+1个视频帧中的前N个视频帧的位置信息作为初始循环神经网络模型的训练样本,将第N+1个视频帧中的位置信息作为初始循环神经网络模型的测试样本,对初始循环神经网络模型进行训练,得到预设循环神经网络模型。
可选的,根据高斯矩阵和置信度数据,在目标视频帧中确定待跟踪目标的搜索中心,包括:
根据高斯矩阵对置信度数据进行加权,得到加权置信度数据;
将加权置信度数据中的最大值对应的位置,确定为待跟踪目标在目标视频帧中的搜索中心。
可选的,在预测待跟踪目标在目标视频帧中的运动目标位置之后,方法还包括:
在置信度数据不满足无遮挡条件的情况下,将运动目标位置确定为待跟踪目标在目标视频帧中的搜索中心;
根据搜索中心和预设搜索区域尺寸,从目标视频帧中截取搜索区域,并在搜索区域中提取待跟踪目标的位置信息。
本发明实施例的第二方面提供了一种目标跟踪装置,包括:
获取模块,用于获取包含有待跟踪目标的视频的目标视频帧;
滤波模块,用于根据所述待跟踪目标的标记信息对所述目标视频帧进行滤波,得到所述待跟踪目标位于所述目标视频帧中各个位置的置信度数据;
预测模块,用于根据所述待跟踪目标在历史视频帧中的历史位置信息,预测所述待跟踪目标在所述目标视频帧中的运动目标位置;所述历史视频帧为所述视频中位于所述目标视频帧之前的视频帧;
确定模块,用于在所述置信度数据满足无遮挡条件的情况下,构建以所述运动目标位置为中心的高斯矩阵,并根据所述高斯矩阵和所述置信度数据,在所述目标视频帧中确定所述待跟踪目标的搜索中心;
提取模块,用于根据所述搜索中心和预设搜索区域尺寸,从所述目标视频帧中截取搜索区域,并在所述搜索区域中提取所述待跟踪目标的位置信息。
可选的,滤波模块还用于:
获取参考视频帧中的待跟踪目标的标记信息;参考视频帧为目标视频帧的前一个历史视频帧;
根据参考视频帧中的待跟踪目标的标记信息,对基于相关滤波的跟踪器进行训练,得到第一滤波器;
采用第一滤波器对目标视频帧进行滤波。
可选的,滤波模块还用于:
获取参考视频帧中的待跟踪目标的标记信息;参考视频帧为目标视频帧的前一个历史视频帧;
根据参考视频帧中的待跟踪目标的标记信息,对基于相关滤波的跟踪器进行训练,得到第二滤波器;
对第二滤波器和第三滤波器进行平滑处理,得到第四滤波器;第三滤波器为对前一个历史视频帧进行滤波的滤波器;
采用第四滤波器对目标视频帧进行滤波。
可选的,预测模块还用于:
获取待跟踪目标在历史视频帧中的历史位置信息;
将待跟踪目标在历史视频帧中的历史位置信息,输入至多输入单输出的预设循环神经网络模型,得到待跟踪目标在目标视频帧中的运动目标位置。
可选的,目标跟踪装置还包括训练模块,用于:
获取测试视频中连续的N+1个视频帧;N+1个视频帧均包括测试目标的位置信息,N为正整数;
将N+1个视频帧中的前N个视频帧的位置信息作为初始循环神经网络模型的训练样本,将第N+1个视频帧中的位置信息作为初始循环神经网络模型的测试样本,对初始循环神经网络模型进行训练,得到预设循环神经网络模型。
可选的,确定模块还用于:
根据高斯矩阵对置信度数据进行加权,得到加权置信度数据;
将加权置信度数据中的最大值对应的位置,确定为待跟踪目标在目标视频帧中的搜索中心。
可选的,确定模块还用于:
在置信度数据不满足无遮挡条件的情况下,将运动目标位置确定为待跟踪目标在目标视频帧中的搜索中心;
相应的,提取模块还用于:
根据搜索中心和预设搜索区域尺寸,从目标视频帧中截取搜索区域,并在搜索区域中提取待跟踪目标的位置信息。
本发明实施例的第三方面提供了一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述方法的步骤。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述方法的步骤。
本发明实施例与现有技术相比存在的有益效果是:
本发明实施例可以根据待跟踪目标位于目标视频帧中各个位置的置信度数据,判断待跟踪目标是否存在遮挡,同时,可以根据待跟踪目标在历史视频帧中的历史位置信息,预测待跟踪目标在目标视频帧中的运动目标位置。如果不存在遮挡,则可以结合置信度数据和运动目标位置,确定出待跟踪目标的搜索中心。由于置信度数据可以反映待跟踪目标位于目标视频帧中各个位置的概率,运动目标位置是基于待跟踪目标的运动情况预测得到的,因此,结合两者的特性可以得到更准确的搜索中心,由此得到的搜索区域可以更全面地覆盖待跟踪目标,提升跟踪性能。这样,可以避免直接以前一视频帧的目标位置作为搜索中心带来的跟踪失败问题,提高跟踪性能。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种跟踪场景示意图;
图2为本发明实施例提供的一种目标跟踪方法的步骤流程图;
图3为本发明实施例提供的一种搜索区域示意图;
图4为本发明实施例提供的一种跟踪装置架构示意图;
图5为本发明实施例提供的一种目标跟踪装置的示意图;
图6为本发明实施例提供的一种电子设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
如背景技术所描述的,现有的视频目标跟踪方法存在如下缺陷:当目标运动过快时,可能会出现跟踪失败的问题。
申请人经过研究发现,现有的视频目标跟踪方法,都需要从待跟踪目标的待跟踪视频帧中截取一个图像块作为搜索区域,然后从该搜索区域中提取待跟踪目标的位置。并且,当截取图像块时,都是以待跟踪视频帧的前一视频帧中的目标位置为搜索中心进行截取,其原理在于:根据物体运动的连续性,待跟踪目标在待跟踪视频帧中的位置,一般与其前一视频帧中的位置相差不远,因此,只要截取的图像块的尺寸合适,必然能够在图像块中找到待跟踪目标。然而,在实际场景中,通常截取的图像块的尺寸不会超过视频帧的一定比例,例如二分之一,如此,当待跟踪目标运动过快时,待跟踪目标很可能离开了上述截取的图像块,从而无法在该截取的图像块中找到待跟踪目标,导致跟踪失败。
为了解决现有技术问题,本发明实施例提供了一种目标跟踪方法、装置、设备和存储介质。下面首先对本发明实施例所提供的目标跟踪方法进行介绍。
目标跟踪方法可以采用如下技术构思:在截取图像块时,不以前一视频帧中的目标位置为搜索中心,而是采用运动预测机制与弱跟踪器相结合的方式,对搜索中心进行预测,然后再截取相应图像块作为搜索区域。
需要说明的是,运动预测机制能够根据历史视频帧中待跟踪目标的运动情况,对当前待跟踪帧的目标位置做初步预测,然后再根据遮挡情况,结合此目标位置来确定搜索中心,由此得到的搜索区域更有可能覆盖待跟踪目标,从而可以防止由于待跟踪目标运动过快导致其超出搜索区域的情况发生。弱跟踪器可以采用早期相关滤波的方法,能够粗略估计待跟踪视频帧与待跟踪目标的近似区域及相关程度,根据相关程度的大小可以判断是否存在遮挡情况,进而可以选择是否直接采用运动预测的目标位置作为搜索中心。
目标跟踪方法的执行主体,可以是目标跟踪装置,该目标跟踪装置可以是具备数据处理功能的电子设备,例如移动电子设备或者非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personaldigital assistant,PDA)等,非移动电子设备可以为服务器、网络附属存储器(NetworkAttached Storage,NAS)或者个人计算机(personal computer,PC)等,本发明实施例不作具体限定。
如图2所示,本发明实施例提供的目标跟踪方法可以包括以下步骤:
步骤S210、获取包含有待跟踪目标的视频的目标视频帧。
在一些实施例中,目标视频帧可以是当前待处理的视频帧,其可以是包含有待跟踪目标的视频中的任意视频帧。在进行目标跟踪之前,可以从存储有待跟踪目标的视频的设备或数据库处获取该视频。之后,可以对该视频进行视频帧提取,从而可以获取到该视频中的目标视频帧。
步骤S220、根据待跟踪目标的标记信息对目标视频帧进行滤波,得到待跟踪目标位于目标视频帧中各个位置的置信度数据。
在一些实施例中,待跟踪目标的标记信息,可以是待跟踪目标在视频帧中被标记出的图像信息,例如待跟踪目标在位于目标视频帧之前的第一个视频帧中被指出的图像块数据、边界框和位置坐标等图像信息。如此,在获取到目标视频帧后,可以根据待跟踪目标的标记信息,对目标视频帧进行滤波,得到待跟踪目标位于目标视频帧中各个位置的置信度数据。
需要说明的是,目标视频帧中各个位置的置信度数据,可以是目标视频帧中各个像素点的置信度数据,其能够反映目标视频帧中不同位置成为待跟踪目标的目标位置的概率。
可选的,可以采用滤波器进行滤波处理,相应的,上述步骤S220中根据待跟踪目标的标记信息对目标视频帧进行滤波的处理,具体可以如下:获取参考视频帧中的待跟踪目标的标记信息;根据参考视频帧中的待跟踪目标的标记信息,对基于相关滤波的跟踪器进行训练,得到第一滤波器;采用第一滤波器对目标视频帧进行滤波。
在一些实施例中,参考视频帧可以是目标视频帧的前一个历史视频帧,即视频中位于目标视频帧之前的第一个历史视频帧,其中,历史视频帧可以是视频中位于目标视频帧之前的视频帧。
具体的,参考视频帧可以分为两种情况。
如果参考视频帧是视频中的第一个视频帧,则参考视频帧中的待跟踪目标的标记信息,可以是由技术人员预先标记得到的标记信息,即待跟踪目标在参考视频帧中被指出的图像块数据。
如果参考视频帧是视频中的非第一个视频帧,则参考视频帧中的待跟踪目标的标记信息,可以是待跟踪目标在位于目标视频帧之前的第一个历史视频帧中被指出的图像块数据。需要说明的是,当对目标视频帧跟踪时,其之前的第一个历史视频帧必然已跟踪完成,如此,待跟踪目标在该之前的第一个历史视频帧中被指出的图像块数据也必然被得到,相应的具体过程可参见下述对目标视频帧的跟踪处理,这里先不做介绍。
在一些实施例中,可以根据参考视频帧中的待跟踪目标的标记信息,即待跟踪目标在参考视频帧中被指出的图像块数据,对基于相关滤波的跟踪器,例如核相关滤波器(Kernel Correlation Filter,KCF),进行训练,得到第一滤波器。之后,可以采用训练得到的第一滤波器对目标视频帧进行滤波,以得到待跟踪目标位于目标视频帧中各个位置的置信度数据。
具体的,任意视频帧可以用第k视频帧表示,k为任意一个正整数,相应的,第k视频帧的第i行第j列的像素值可以用Ik(i,j)表示。第一滤波器可以用H表示。可以利用下述计算公式,计算待跟踪目标位于目标视频帧中各个位置的置信度数据,公式如下:
Ck=Ik*H;
其中,*代表卷积运算,Ck(i,j)表示第k视频帧的置信度数据,其表示待跟踪目标的目标位置位于(i,j)处的概率。
可选的,为了使跟踪的目标运动轨迹能够达到平滑过渡的效果,上述步骤S220中的根据待跟踪目标的标记信息对目标视频帧进行滤波的处理,具体可以如下:获取参考视频帧中的待跟踪目标的标记信息;根据参考视频帧中的待跟踪目标的标记信息,对基于相关滤波的跟踪器进行训练,得到第二滤波器;对第二滤波器和第三滤波器进行平滑处理,得到第四滤波器;采用第四滤波器对目标视频帧进行滤波。
在一些实施例中,参考视频帧可以是目标视频帧的前一个历史视频帧,即视频中位于目标视频帧之前的第一个历史视频帧,其中,历史视频帧可以是视频中位于目标视频帧之前的视频帧。
在一些实施例中,与上述第一滤波器的训练过程相同,第二滤波器可以是根据参考视频帧中的待跟踪目标的标记信息,即待跟踪目标在参考视频帧中被指出的图像块数据,训练得到的滤波器。此外,与前述只采用一个滤波器进行滤波的处理不同,可以在第二滤波器的基础上,结合第三滤波器,即对目标视频帧的前一个历史视频帧进行滤波时采用的滤波器,得到最终对目标视频帧进行滤波的第四滤波器。之后,可以采用第四滤波器对目标视频帧进行滤波,以对待跟踪目标的运动轨迹进行平滑过渡。
具体的,最终对目标视频帧进行滤波的第四滤波器可以表示为Hi,可以使用如下迭代公式,得到第四滤波器Hi:
Hi=α*Fi-1+(1-α)*Hi-1;
其中,Fi-1表示第二滤波器,Hi-1表示第三滤波器,α为预设系数。
值得一提的是,上述第一至第四滤波器可以分为两类滤波器:
第I类滤波器是指第一滤波器和第二滤波器,它们可以根据参考视频帧中指明的待跟踪目标的图像块数据训练得到,第I类滤波器可以用F表示;
第II类滤波器是指第三滤波器和第四滤波器,它们可以根据上述迭代公式得到,它们是对下一视频帧进行滤波时真正使用的滤波器,第II类滤波器可以用H表示。
步骤S230、根据待跟踪目标在历史视频帧中的历史位置信息,预测待跟踪目标在目标视频帧中的运动目标位置。
在一些实施例中,待跟踪目标在目标视频帧中的运动目标位置,可以是待跟踪目标在目标视频帧中可能出现的位置。
可选的,可以利用循环神经网络模型预测运动目标位置,相应的,步骤S230的具体处理可以如下:获取待跟踪目标在历史视频帧中的历史位置信息;将待跟踪目标在历史视频帧中的历史位置信息,输入至多输入单输出的预设循环神经网络模型,得到待跟踪目标在目标视频帧中的运动目标位置。
在一些实施例中,待跟踪目标在历史视频帧中的历史位置信息,可以反映出待跟踪目标的运动情况,如此,可以将待跟踪目标在历史视频帧中的历史位置信息作为预设循环神经网络模型的输入,以预测出待跟踪目标在目标视频帧中的运动目标位置。
可选的,预设循环神经网络模型可以预先训练得到,相应的,在上述将待跟踪目标在历史视频帧中的历史位置信息,输入至多输入单输出的预设循环神经网络模型之前,还可以进行如下处理:获取测试视频中连续的N+1个视频帧;N+1个视频帧均包括测试目标的位置信息,N为正整数;将N+1个视频帧中的前N个视频帧的位置信息作为初始循环神经网络模型的训练样本,将第N+1个视频帧中的位置信息作为初始循环神经网络模型的测试样本,对初始循环神经网络模型进行训练,得到预设循环神经网络模型。
在一些实施例中,测试视频可以是由技术人员预先对某视频中的待跟踪目标进行人工标定所得到的视频。
步骤S240、在置信度数据满足无遮挡条件的情况下,构建以运动目标位置为中心的高斯矩阵,并根据高斯矩阵和置信度数据,在目标视频帧中确定待跟踪目标的搜索中心。
在一些实施例中,无遮挡条件可以用于判断待跟踪目标在目标视频帧中是否被遮挡。具体的,无遮挡条件可以是置信度数据中的最大置信度大于预设阈值,即如果置信度数据中的最大置信度大于预设阈值,则认为置信度数据满足无遮挡条件。
以max(Ck)表示置信度数据中的最大置信度、h表示预设阈值为例,如果max(Ck)≥,则表示目标视频帧与参考帧的相关性强,如此,可以判断置信度数据满足无遮挡条件,即待跟踪目标在目标视频帧中未被遮挡。如果max(Ck)<,则表示目标视频帧与参考帧的相关性弱,如此,可以判断置信度数据不满足无遮挡条件,即待跟踪目标在目标视频帧中被遮挡。
可选的,上述步骤S240中的根据高斯矩阵和置信度数据,在目标视频帧中确定待跟踪目标的搜索中心的具体处理,可以如下:根据高斯矩阵对置信度数据进行加权,得到加权置信度数据;将加权置信度数据中的最大值对应的位置,确定为待跟踪目标在目标视频帧中的搜索中心。
需要说明的是,高斯矩阵可以是覆盖整个目标视频帧中所有像素的矩阵,其可以以运动目标位置为高斯中心,向外扩展直至覆盖目标视频帧的整个图像区域。此外,目标视频帧中各个位置的置信度数据,也可以是覆盖目标视频帧整个图像区域的矩阵,如此,在目标视频帧的整个图像区域内,每个像素都对应有置信度数据,也都对应有高斯权重。
之后,可以根据高斯矩阵和置信度数据,在目标视频帧中确定待跟踪目标的搜索中心。
具体的,可以将Gk(i,j)与Ck(i,j)进行如下结合,得到加权置信度数据Pk(i,j),结合如下:
Pk(i,j)=αGk(i,j)+βCk(i,j);
其中,α和β分别是预先设定的常数。
之后,可以将,取Pk(i,j)的最大值作为搜索中心ck,即
值得一提的是,通过加权置信度数据所得到的搜索中心,还可以避免由仅根据置信度数据确定搜索中心所带来的跟踪错误的情况。例如,当目标视频帧中存在一个或多个纹理特征与待跟踪目标相似的干扰目标时,比如待跟踪目标与干扰目标均为穿着相同校服的小学生,如果仅采用置信度数据来确定搜索中心,可能出现干扰目标所在区域的置信度高于待跟踪目标所在区域的置信度的情况,导致确定出的搜索中心更加接近干扰目标。而通过加权置信度数据所得到的搜索中心,可以使确定出的搜索中心更加接近运动目标位置,这样,在后续选择待跟踪目标时,能够偏重于选择接近运动目标位置的目标,从而可以避免由于搜索中心更加接近干扰目标所带来的跟踪错误的情况。
步骤S250、根据搜索中心和预设搜索区域尺寸,从目标视频帧中截取搜索区域,并在搜索区域中提取待跟踪目标的位置信息。
在一些实施例中,预设搜索区域可以是正方形,相应的,预设搜索区域尺寸可以设置为目标视频帧的长或宽的三分之一。如此,在搜索中心确定的情况下,可以根据预设搜索区域尺寸,确定出搜索区域。之后,可以从目标视频帧中截取搜索区域,然后可以利用基于待跟踪目标的训练集所训练得到的跟踪器,例如SiameseRPN、ATOM等,在搜索区域中提取出待跟踪目标的位置信息。
具体的,如图3所示,预设搜索区域尺寸可以用s表示,可以通过下述公式计算s:
其中,w和h分别为待跟踪目标的宽和高。
可选的,对于存在遮挡的情况,还可以进行如下处理:在置信度数据不满足无遮挡条件的情况下,将运动目标位置确定为待跟踪目标在目标视频帧中的搜索中心;根据搜索中心和预设搜索区域尺寸,从目标视频帧中截取搜索区域,并在搜索区域中提取待跟踪目标的位置信息。
在一些实施例中,正如上述所介绍的,如果max(Ck)<,则表示目标视频帧与参考帧的相关性弱,如此,可以判断置信度数据不满足无遮挡条件,即待跟踪目标在目标视频帧中被遮挡。这时,可以直接将运动目标位置确定为待跟踪目标在目标视频帧中的搜索中心。然后,再根据确定出的搜索中心,以及预设搜索区域尺寸,从目标视频帧中截取搜索区域。最后可以按照通用跟踪算法,在搜索区域中提取出待跟踪目标的位置信息。
可选的,为了提高目标跟踪的准确性,还可以在每次处理完当前的待跟踪视频帧后,利用当次处理过程中的运动目标位置和搜索中心之间的误差,调整预设循环神经网络模型的模型参数。
在一些实施例中,可以获取当次处理过程中的运动目标位置和搜索中心之间的误差,之后,可以利用反向传播算法更新预设循环神经网络模型的模型参数,从而可以持续优化预设循环神经网络模型。如此,可以利用持续优化的预设循环神经网络模型,对目标视频帧之后的下一个视频帧进行跟踪,提高目标跟踪的准确性。
需要说明的是,可以按照视频帧的播放顺序,当目标视频帧跟踪处理结束后,可以对目标视频帧之后的下一视频帧进行上述处理,直至对整个视频完成目标跟踪。
在本发明实施例中,可以根据待跟踪目标位于目标视频帧中各个位置的置信度数据,判断待跟踪目标是否存在遮挡,同时,可以根据待跟踪目标在历史视频帧中的历史位置信息,预测待跟踪目标在目标视频帧中的运动目标位置。如果不存在遮挡,则可以结合置信度数据和运动目标位置,确定出待跟踪目标的搜索中心。由于置信度数据可以反映待跟踪目标位于目标视频帧中各个位置的概率,运动目标位置是基于待跟踪目标的运动情况预测得到的,因此,结合两者的特性可以得到更准确的搜索中心,由此得到的搜索区域可以更全面地覆盖待跟踪目标,提升跟踪性能。这样,可以避免直接以前一视频帧的目标位置作为搜索中心带来的跟踪失败问题,提高跟踪性能。
为了更好的理解本发明实施例提供的目标跟踪方法,下面给出一种实现该目标跟踪方法的跟踪装置架构,如图4所示,该跟踪装置可以包括模型训练模块、弱跟踪器模块、运动预测模块、搜索中心预测模块、强跟踪器模块以及模型更新模块。
模型训练模块,可以对跟踪过程中所需的跟踪器和运动预测器进行预训练。其中,跟踪器可以包括弱跟踪器和强跟踪器。模型训练模块可以用于:训练弱跟踪器,即利用参考帧及给定目标进行预训练,得到相关滤波器;训练运动预测器,即对上述预设循环神经网络模型进行预训练;训练强跟踪器,即在目标跟踪数据集上对跟踪器进行预训练,或者采用现有技术中已训练好的权重参数。
弱跟踪器模块,可以根据待跟踪目标的标记信息对目标视频帧进行滤波,得到待跟踪目标位于目标视频帧中各个位置的置信度数据。
运动预测模块,可以根据待跟踪目标在历史视频帧中的历史位置信息,预测待跟踪目标在目标视频帧中的运动目标位置。
搜索中心预测模块,可以在目标视频帧中确定待跟踪目标的搜索中心。
强跟踪器模块,可以根据搜索中心和预设搜索区域尺寸,从目标视频帧中截取搜索区域,并在搜索区域中提取待跟踪目标的位置信息。
模型更新模块,可以对弱跟踪器和运动预测器进行更新。
基于上述实施例提供的目标跟踪方法,相应地,本发明还提供了应用于该目标跟踪方法的目标跟踪装置的具体实现方式。请参见以下实施例。
如图5所示,提供了一种目标跟踪装置,该装置包括:
获取模块510,用于获取包含有待跟踪目标的视频的目标视频帧;
滤波模块520,用于根据所述待跟踪目标的标记信息对所述目标视频帧进行滤波,得到所述待跟踪目标位于所述目标视频帧中各个位置的置信度数据;
预测模块530,用于根据所述待跟踪目标在历史视频帧中的历史位置信息,预测所述待跟踪目标在所述目标视频帧中的运动目标位置;所述历史视频帧为所述视频中位于所述目标视频帧之前的视频帧;
确定模块540,用于在所述置信度数据满足无遮挡条件的情况下,构建以所述运动目标位置为中心的高斯矩阵,并根据所述高斯矩阵和所述置信度数据,在所述目标视频帧中确定所述待跟踪目标的搜索中心;
提取模块550,用于根据所述搜索中心和预设搜索区域尺寸,从所述目标视频帧中截取搜索区域,并在所述搜索区域中提取所述待跟踪目标的位置信息。
可选的,滤波模块还用于:
获取参考视频帧中的待跟踪目标的标记信息;参考视频帧为目标视频帧的前一个历史视频帧;
根据参考视频帧中的待跟踪目标的标记信息,对基于相关滤波的跟踪器进行训练,得到第一滤波器;
采用第一滤波器对目标视频帧进行滤波。
可选的,滤波模块还用于:
获取参考视频帧中的待跟踪目标的标记信息;参考视频帧为目标视频帧的前一个历史视频帧;
根据参考视频帧中的待跟踪目标的标记信息,对基于相关滤波的跟踪器进行训练,得到第二滤波器;
对第二滤波器和第三滤波器进行平滑处理,得到第四滤波器;第三滤波器为对前一个历史视频帧进行滤波的滤波器;
采用第四滤波器对目标视频帧进行滤波。
可选的,预测模块还用于:
获取待跟踪目标在历史视频帧中的历史位置信息;
将待跟踪目标在历史视频帧中的历史位置信息,输入至多输入单输出的预设循环神经网络模型,得到待跟踪目标在目标视频帧中的运动目标位置。
可选的,目标跟踪装置还包括训练模块,用于:
获取测试视频中连续的N+1个视频帧;N+1个视频帧均包括测试目标的位置信息,N为正整数;
将N+1个视频帧中的前N个视频帧的位置信息作为初始循环神经网络模型的训练样本,将第N+1个视频帧中的位置信息作为初始循环神经网络模型的测试样本,对初始循环神经网络模型进行训练,得到预设循环神经网络模型。
可选的,确定模块还用于:
根据高斯矩阵对置信度数据进行加权,得到加权置信度数据;
将加权置信度数据中的最大值对应的位置,确定为待跟踪目标在目标视频帧中的搜索中心。
可选的,确定模块还用于:
在置信度数据不满足无遮挡条件的情况下,将运动目标位置确定为待跟踪目标在目标视频帧中的搜索中心;
相应的,提取模块还用于:
根据搜索中心和预设搜索区域尺寸,从目标视频帧中截取搜索区域,并在搜索区域中提取待跟踪目标的位置信息。
在本发明实施例中,可以根据待跟踪目标位于目标视频帧中各个位置的置信度数据,判断待跟踪目标是否存在遮挡,同时,可以根据待跟踪目标在历史视频帧中的历史位置信息,预测待跟踪目标在目标视频帧中的运动目标位置。如果不存在遮挡,则可以结合置信度数据和运动目标位置,确定出待跟踪目标的搜索中心。由于置信度数据可以反映待跟踪目标位于目标视频帧中各个位置的概率,运动目标位置是基于待跟踪目标的运动情况预测得到的,因此,结合两者的特性可以得到更准确的搜索中心,由此得到的搜索区域可以更全面地覆盖待跟踪目标,提升跟踪性能。这样,可以避免直接以前一视频帧的目标位置作为搜索中心带来的跟踪失败问题,提高跟踪性能。
图6是本发明一实施例提供的电子设备的示意图。如图6所示,该实施例的电子设备6包括:处理器60、存储器61以及存储在所述存储器61中并可在所述处理器60上运行的计算机程序62。所述处理器60执行所述计算机程序62时实现上述各个目标跟踪方法实施例中的步骤。或者,所述处理器60执行所述计算机程序62时实现上述各装置实施例中各模块/单元的功能。
示例性的,所述计算机程序62可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器61中,并由所述处理器60执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序62在所述电子设备6中的执行过程。例如,所述计算机程序62可以被分割成获取模块、滤波模块、预测模块、确定模块和提取模块,各模块具体功能如下:
获取模块,用于获取包含有待跟踪目标的视频的目标视频帧;
滤波模块,用于根据所述待跟踪目标的标记信息对所述目标视频帧进行滤波,得到所述待跟踪目标位于所述目标视频帧中各个位置的置信度数据;
预测模块,用于根据所述待跟踪目标在历史视频帧中的历史位置信息,预测所述待跟踪目标在所述目标视频帧中的运动目标位置;所述历史视频帧为所述视频中位于所述目标视频帧之前的视频帧;
确定模块,用于在所述置信度数据满足无遮挡条件的情况下,构建以所述运动目标位置为中心的高斯矩阵,并根据所述高斯矩阵和所述置信度数据,在所述目标视频帧中确定所述待跟踪目标的搜索中心;
提取模块,用于根据所述搜索中心和预设搜索区域尺寸,从所述目标视频帧中截取搜索区域,并在所述搜索区域中提取所述待跟踪目标的位置信息。
所述电子设备6可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述电子设备可包括,但不仅限于,处理器60、存储器61。本领域技术人员可以理解,图6仅仅是电子设备6的示例,并不构成对电子设备6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器60可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器61可以是所述电子设备6的内部存储单元,例如电子设备6的硬盘或内存。所述存储器61也可以是所述电子设备6的外部存储设备,例如所述电子设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器61还可以既包括所述电子设备6的内部存储单元也包括外部存储设备。所述存储器61用于存储所述计算机程序以及所述电子设备所需的其他程序和数据。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种目标跟踪方法,其特征在于,包括:
获取包含有待跟踪目标的视频的目标视频帧;
根据所述待跟踪目标的标记信息对所述目标视频帧进行滤波,得到所述待跟踪目标位于所述目标视频帧中各个位置的置信度数据;
根据所述待跟踪目标在历史视频帧中的历史位置信息,预测所述待跟踪目标在所述目标视频帧中的运动目标位置;所述历史视频帧为所述视频中位于所述目标视频帧之前的视频帧;
在所述置信度数据满足无遮挡条件的情况下,构建以所述运动目标位置为中心的高斯矩阵,并根据所述高斯矩阵和所述置信度数据,在所述目标视频帧中确定所述待跟踪目标的搜索中心;
根据所述搜索中心和预设搜索区域尺寸,从所述目标视频帧中截取搜索区域,并在所述搜索区域中提取所述待跟踪目标的位置信息。
2.如权利要求1所述的目标跟踪方法,其特征在于,所述根据所述待跟踪目标的标记信息对所述目标视频帧进行滤波,包括:
获取参考视频帧中的待跟踪目标的标记信息;所述参考视频帧为所述目标视频帧的前一个所述历史视频帧;
根据所述参考视频帧中的待跟踪目标的标记信息,对基于相关滤波的跟踪器进行训练,得到第一滤波器;
采用所述第一滤波器对所述目标视频帧进行滤波。
3.如权利要求1所述的目标跟踪方法,其特征在于,所述根据所述待跟踪目标的标记信息对所述目标视频帧进行滤波,包括:
获取参考视频帧中的待跟踪目标的标记信息;所述参考视频帧为所述目标视频帧的前一个所述历史视频帧;
根据所述参考视频帧中的待跟踪目标的标记信息,对基于相关滤波的跟踪器进行训练,得到第二滤波器;
对所述第二滤波器和第三滤波器进行平滑处理,得到第四滤波器;所述第三滤波器为对所述前一个所述历史视频帧进行滤波的滤波器;
采用所述第四滤波器对所述目标视频帧进行滤波。
4.如权利要求1所述的目标跟踪方法,其特征在于,所述根据所述待跟踪目标在历史视频帧中的历史位置信息,预测所述待跟踪目标在所述目标视频帧中的运动目标位置,包括:
获取所述待跟踪目标在历史视频帧中的历史位置信息;
将所述待跟踪目标在历史视频帧中的历史位置信息,输入至多输入单输出的预设循环神经网络模型,得到所述待跟踪目标在所述目标视频帧中的运动目标位置。
5.如权利要求4所述的目标跟踪方法,其特征在于,在所述将所述待跟踪目标在历史视频帧中的历史位置信息,输入至多输入单输出的预设循环神经网络模型之前,所述方法还包括:
获取测试视频中连续的N+1个视频帧;所述N+1个视频帧均包括测试目标的位置信息,N为正整数;
将N+1个视频帧中的前N个视频帧的位置信息作为初始循环神经网络模型的训练样本,将第N+1个视频帧中的位置信息作为所述初始循环神经网络模型的测试样本,对所述初始循环神经网络模型进行训练,得到所述预设循环神经网络模型。
6.如权利要求1所述的目标跟踪方法,其特征在于,所述根据所述高斯矩阵和所述置信度数据,在所述目标视频帧中确定所述待跟踪目标的搜索中心,包括:
根据所述高斯矩阵对所述置信度数据进行加权,得到加权置信度数据;
将所述加权置信度数据中的最大值对应的位置,确定为所述待跟踪目标在所述目标视频帧中的搜索中心。
7.如权利要求1所述的目标跟踪方法,其特征在于,在所述预测所述待跟踪目标在所述目标视频帧中的运动目标位置之后,所述方法还包括:
在所述置信度数据不满足无遮挡条件的情况下,将所述运动目标位置确定为所述待跟踪目标在所述目标视频帧中的搜索中心;
根据所述搜索中心和预设搜索区域尺寸,从所述目标视频帧中截取搜索区域,并在所述搜索区域中提取所述待跟踪目标的位置信息。
8.一种目标跟踪装置,其特征在于,包括:
获取模块,用于获取包含有待跟踪目标的视频的目标视频帧;
滤波模块,用于根据所述待跟踪目标的标记信息对所述目标视频帧进行滤波,得到所述待跟踪目标位于所述目标视频帧中各个位置的置信度数据;
预测模块,用于根据所述待跟踪目标在历史视频帧中的历史位置信息,预测所述待跟踪目标在所述目标视频帧中的运动目标位置;所述历史视频帧为所述视频中位于所述目标视频帧之前的视频帧;
确定模块,用于在所述置信度数据满足无遮挡条件的情况下,构建以所述运动目标位置为中心的高斯矩阵,并根据所述高斯矩阵和所述置信度数据,在所述目标视频帧中确定所述待跟踪目标的搜索中心;
提取模块,用于根据所述搜索中心和预设搜索区域尺寸,从所述目标视频帧中截取搜索区域,并在所述搜索区域中提取所述待跟踪目标的位置信息。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011616387.5A CN112634316B (zh) | 2020-12-30 | 2020-12-30 | 目标跟踪方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011616387.5A CN112634316B (zh) | 2020-12-30 | 2020-12-30 | 目标跟踪方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112634316A true CN112634316A (zh) | 2021-04-09 |
CN112634316B CN112634316B (zh) | 2022-11-25 |
Family
ID=75287127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011616387.5A Active CN112634316B (zh) | 2020-12-30 | 2020-12-30 | 目标跟踪方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112634316B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113658232A (zh) * | 2021-07-13 | 2021-11-16 | 广东技术师范大学 | 基于视频跟踪的建模方法、装置及计算机可读程序介质 |
CN114445601A (zh) * | 2022-04-08 | 2022-05-06 | 北京大甜绵白糖科技有限公司 | 一种图像处理方法、装置、设备和存储介质 |
CN116504068A (zh) * | 2023-06-26 | 2023-07-28 | 创辉达设计股份有限公司江苏分公司 | 车道级车流量的统计方法、装置、计算机设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016689A (zh) * | 2017-02-04 | 2017-08-04 | 中国人民解放军理工大学 | 一种尺度自适应的相关滤波对冲目标跟踪方法 |
CN108734151A (zh) * | 2018-06-14 | 2018-11-02 | 厦门大学 | 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法 |
CN108921879A (zh) * | 2018-05-16 | 2018-11-30 | 中国地质大学(武汉) | 基于区域选择的CNN和Kalman滤波的运动目标跟踪方法及系统 |
CN110796686A (zh) * | 2019-10-29 | 2020-02-14 | 浙江大华技术股份有限公司 | 目标跟踪方法及设备、存储装置 |
CN111161324A (zh) * | 2019-11-20 | 2020-05-15 | 山东工商学院 | 一种基于自适应多模更新策略的目标跟踪方法 |
CN111815670A (zh) * | 2019-04-10 | 2020-10-23 | 曜科智能科技(上海)有限公司 | 多视图目标跟踪方法、装置、系统、电子终端、及存储介质 |
-
2020
- 2020-12-30 CN CN202011616387.5A patent/CN112634316B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016689A (zh) * | 2017-02-04 | 2017-08-04 | 中国人民解放军理工大学 | 一种尺度自适应的相关滤波对冲目标跟踪方法 |
CN108921879A (zh) * | 2018-05-16 | 2018-11-30 | 中国地质大学(武汉) | 基于区域选择的CNN和Kalman滤波的运动目标跟踪方法及系统 |
CN108734151A (zh) * | 2018-06-14 | 2018-11-02 | 厦门大学 | 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法 |
CN111815670A (zh) * | 2019-04-10 | 2020-10-23 | 曜科智能科技(上海)有限公司 | 多视图目标跟踪方法、装置、系统、电子终端、及存储介质 |
CN110796686A (zh) * | 2019-10-29 | 2020-02-14 | 浙江大华技术股份有限公司 | 目标跟踪方法及设备、存储装置 |
CN111161324A (zh) * | 2019-11-20 | 2020-05-15 | 山东工商学院 | 一种基于自适应多模更新策略的目标跟踪方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113658232A (zh) * | 2021-07-13 | 2021-11-16 | 广东技术师范大学 | 基于视频跟踪的建模方法、装置及计算机可读程序介质 |
CN113658232B (zh) * | 2021-07-13 | 2024-01-05 | 杭州追形视频科技有限公司 | 基于视频跟踪的建模方法、装置及计算机可读程序介质 |
CN114445601A (zh) * | 2022-04-08 | 2022-05-06 | 北京大甜绵白糖科技有限公司 | 一种图像处理方法、装置、设备和存储介质 |
CN116504068A (zh) * | 2023-06-26 | 2023-07-28 | 创辉达设计股份有限公司江苏分公司 | 车道级车流量的统计方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112634316B (zh) | 2022-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310775B (zh) | 数据训练方法、装置、终端设备及计算机可读存储介质 | |
CN112634316B (zh) | 目标跟踪方法、装置、设备和存储介质 | |
JP7236545B2 (ja) | ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム | |
CN111860398B (zh) | 遥感图像目标检测方法、系统及终端设备 | |
CN108898624B (zh) | 一种运动物体跟踪的方法、装置、电子设备和存储介质 | |
CN110766724B (zh) | 目标跟踪网络训练、跟踪方法及装置、电子设备及介质 | |
US12039440B2 (en) | Image classification method and apparatus, and image classification model training method and apparatus | |
CN111563919B (zh) | 目标跟踪方法、装置、计算机可读存储介质及机器人 | |
CN108648211B (zh) | 一种基于深度学习的小目标检测方法、装置、设备和介质 | |
CN110598558A (zh) | 人群密度估计方法、装置、电子设备及介质 | |
CN108846851B (zh) | 运动目标跟踪方法及终端设备 | |
CN112132265B (zh) | 模型训练方法、杯盘比确定方法、装置、设备及存储介质 | |
CN112036381B (zh) | 视觉跟踪方法、视频监控方法及终端设备 | |
CN115345905A (zh) | 目标对象跟踪方法、装置、终端及存储介质 | |
CN115063454B (zh) | 多目标跟踪匹配方法、装置、终端及存储介质 | |
CN113393487A (zh) | 运动目标检测方法、装置、电子设备及介质 | |
CN111062400A (zh) | 目标匹配方法及装置 | |
CN111126049B (zh) | 对象关系预测方法、装置、终端设备及可读存储介质 | |
CN111414910A (zh) | 基于双重卷积神经网络的小目标增强检测方法和装置 | |
CN115546705A (zh) | 目标识别方法、终端设备及存储介质 | |
CN113034497A (zh) | 一种基于视觉的保温杯焊缝定位检测方法及系统 | |
CN115457364A (zh) | 一种目标检测知识蒸馏方法、装置、终端设备和存储介质 | |
CN111709377A (zh) | 特征提取方法、目标重识别方法、装置及电子设备 | |
CN116580063B (zh) | 目标追踪方法、装置、电子设备及存储介质 | |
CN113223083B (zh) | 一种位置确定方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |