CN110738149A - 目标跟踪方法、终端及存储介质 - Google Patents
目标跟踪方法、终端及存储介质 Download PDFInfo
- Publication number
- CN110738149A CN110738149A CN201910935404.2A CN201910935404A CN110738149A CN 110738149 A CN110738149 A CN 110738149A CN 201910935404 A CN201910935404 A CN 201910935404A CN 110738149 A CN110738149 A CN 110738149A
- Authority
- CN
- China
- Prior art keywords
- position information
- preset
- video stream
- monitored
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本申请适用于计算机技术领域,提供一种目标跟踪方法,包括:获取预设时长的监控视频流;采用预设的跟踪算法分析监控视频流,确定待监控对象在监控视频流中的最终位置信息;确定最终位置信息对应的可靠性得分;若所述可靠性得分大于预设的可靠性得分阈值,则将最终位置信息识别为所述待监控对象的目标位置信息;若可靠性得分小于或者等于预设的可靠性得分阈值,则根据预先训练完成的位置检测模型对监控视频流进行分析,得到待监控对象的目标位置信息。由于在可靠性得分小于或者等于预设的可靠性得分阈值时,根据预先训练完成的位置检测模型对监控视频流进行分析,得到待监控对象的所述目标位置信息,能够对目标进行长时间跟踪,提高跟踪效果。
Description
技术领域
本申请属于计算机技术领域,尤其涉及一种目标跟踪方法、终端及存储介质。
背景技术
目前,传统的跟踪算法无法对监控视频中目标的全方位信息进行分析,而在长时间跟踪过程中,目标的全方位信息对跟踪结果影响很大,使得传统的跟踪算法无法对目标进行长时间跟踪,跟踪效果不理想。
发明内容
有鉴于此,本申请实施例提供了目标跟踪方法、终端及存储介质,以解决现有技术中无法对目标进行长时间跟踪,导致的跟踪效果不理想的问题。
本申请实施例的第一方面提供了一种目标跟踪方法,包括:
获取预设时长的监控视频流,所述监控视频流包括待监控对象的位置信息;
采用预设的跟踪算法分析所述监控视频流,确定所述待监控对象在所述监控视频流中的最终位置信息;
确定所述最终位置信息对应的可靠性得分;
若所述可靠性得分大于预设的可靠性得分阈值,则判定所述最终位置信息为所述待监控对象的目标位置信息,所述目标位置信息为对所述待监控对象的定位结果;
若所述可靠性得分小于或者等于预设的可靠性得分阈值,则根据预先训练完成的位置检测模型对所述监控视频流进行分析,得到所述待监控对象的所述目标位置信息。
在一种可选的实现方式中,所述预设的跟踪算法为相关滤波算法与颜色直方图概率统计算法相结合的跟踪算法,所述方法还包括:
若所述可靠性得分小于或者等于预设的可靠性得分阈值,则获取所述预先训练完成的位置检测模型对所述监控视频流进行分析之后,得到的所述目标位置信息;
根据所述目标位置信息更新所述相关滤波算法中的初始相关滤波器,以及根据所述目标位置信息更新所述颜色直方图概率统计算法中的权重向量。
在一种可选的实现方式中,所述采用预设的跟踪算法分析所述监控视频帧,确定待监控对象在所述监控视频流中的最终位置信息,包括:
获取所述监控视频流的当前图像帧;
计算所述当前图像帧的方向梯度直方图的第一响应值;
计算所述当前图像帧的颜色直方图的第二响应值;
将所述第一响应值和所述第二响应值进行融合,得到所述待监控对象在所述当前图像帧的最终响应值;
基于所述最终响应值确定所述最终位置信息。
在一种可选的实现方式中,所述计算所述当前图像帧的方向梯度直方图的第一响应值,包括:
获取所述当前图像帧的第一方向梯度直方图特征;
基于所述第一方向梯度直方图特征生成初始相关滤波器;
提取与所述当前图像帧相邻的下一图像帧的第二方向梯度直方图特征,得到所述第二方向梯度直方图的特征图像;
根据所述初始相关滤波器对所述第二特征图像进行卷积操作,得到所述第一响应值。
在一种可选的实现方式中,所述计算所述当前图像帧的颜色直方图的第二响应值,包括:
提取所述当前图像帧的颜色直方图统计信息;
根据所述颜色直方图统计信息确定所述当前图像帧的颜色直方图的权重向量;
基于所述权重向量计算得到所述第二响应值。
在一种可选的实现方式中,所述基于所述最终响应值确定所述最终位置信息,包括:
查找所述最终响应值的极大位置点,将所述极大位置点作为所述最终位置信息。
在一种可选的实现方式中,所述预先训练完成的目标位置检测模型为神经网络模型,所述神经网络模型的训练过程包括:
获取由预设数量的样本构建的样本集,按预设比例将所述样本集中的样本划分为训练样本和测试样本;
基于所述训练样本训练预先建立的神经网络模型,得到训练完成的所述神经网络模型;
根据所述测试样本对训练完成的所述神经网络模型进行准确性测试;
若测试通过,则将训练完成的所述神经网络模型作为训练完成的所述目标位置检测模型;
若测试不通过,则增加所述训练样本的样本数量,并执行所述基于所述训练样本集中的样本训练预先建立的神经网络模型,得到训练完成的所述神经网络模型。
在一种可选的实现方式中,所述根据所述测试样本集中的样本对训练完成的所述神经网络模型进行准确性测试,包括:
将所述测试样本依次输入训练完成的所述神经网络模型进行分析,得到所述测试样本中包括的待跟踪对象在所述测试样本中的预测位置信息;
若所述预测位置信息与预设的样本位置信息相同的概率值大于预设的概率阈值,则判定对训练完成的所述神经网络模型的测试通过;
若所述预测位置信息与预设的样本位置信息相同的概率值小于或者等于预设的概率阈值,则判定对训练完成的所述神经网络模型的测试不通过。
在一种可选的实现方式中,所述样本包括所述监控视频流以及所述待监控对象在所述监控视频流中的最终位置信息。
本申请实施例的第二方面提供了一种目标跟踪装置,包括:
第一获取模块,用于获取预设时长的监控视频流,所述监控视频流包括待监控对象的位置信息;
第一确定模块,用于采用预设的跟踪算法分析所述监控视频流,确定所述待监控对象在所述监控视频流中的最终位置信息;
第二确定模块,用于确定所述最终位置信息对应的可靠性得分;
判定模块,用于在若所述可靠性得分大于预设的可靠性得分阈值,则判定所述最终位置信息为所述待监控对象的目标位置信息,所述目标位置信息为对所述待监控对象的定位结果;
得到模块,用于在若所述可靠性得分小于或者等于预设的可靠性得分阈值,则根据预先训练完成的位置检测模型对所述监控视频流进行分析,得到所述待监控对象的所述目标位置信息。
在一种可选的实现方式中,所述预设的跟踪算法为相关滤波算法与颜色直方图概率统计算法相结合的跟踪算法,所述装置还包括:
第二获取模块,用于在若所述可靠性得分小于或者等于预设的可靠性得分阈值,则获取所述预先训练完成的位置检测模型对所述监控视频流进行分析之后,得到的所述目标位置信息;
更新模块,用于根据所述目标位置信息更新所述相关滤波算法中的初始相关滤波器,以及根据所述目标位置信息更新所述颜色直方图概率统计算法中的权重向量。
在一种可选的实现方式中,第一确定模块,包括:
获取单元,用于获取所述监控视频流的当前图像帧;
第一计算单元,用于计算所述当前图像帧的方向梯度直方图的第一响应值;
第二计算单元,用于计算所述当前图像帧的颜色直方图的第二响应值;
融合单元,用于将所述第一响应值和所述第二响应值进行融合,得到所述待监控对象在所述当前图像帧的最终响应值;
确定单元,用于基于所述最终响应值确定所述最终位置信息。
在一种可选的实现方式中,所述第一计算单元,包括:
获取子单元,用于获取所述当前图像帧的第一方向梯度直方图特征;
生成子单元,用于基于所述第一方向梯度直方图特征生成初始相关滤波器;
第一提取子单元,用于提取与所述当前图像帧相邻的下一图像帧的第二方向梯度直方图特征,得到所述第二方向梯度直方图的特征图像;
第一得到子单元,用于根据所述初始相关滤波器对所述第二特征图像进行卷积操作,得到所述第一响应值。
在一种可选的实现方式中,第二计算单元,包括:
第二提取子单元,用于提取所述当前图像帧的颜色直方图统计信息;
确定子单元,用于根据所述颜色直方图统计信息确定所述当前图像帧的颜色直方图的权重向量;
第二得到子单元,用于基于所述权重向量计算得到所述第二响应值。
在一种可选的实现方式中,确定单元具体用于:
查找所述最终响应值的极大位置点,将所述极大位置点作为所述最终位置信息。
在一种可选的实现方式中,所述预先训练完成的目标位置检测模型为神经网络模型,所述神经网络模型的训练过程包括:
获取由预设数量的样本构建的样本集,按预设比例将所述样本集中的样本划分为训练样本和测试样本;
基于所述训练样本训练预先建立的神经网络模型,得到训练完成的所述神经网络模型;
根据所述测试样本对训练完成的所述神经网络模型进行准确性测试;
若测试通过,则将训练完成的所述神经网络模型作为训练完成的所述目标位置检测模型;
若测试不通过,则增加所述训练样本的样本数量,并执行所述基于所述训练样本集中的样本训练预先建立的神经网络模型,得到训练完成的所述神经网络模型。
在一种可选的实现方式中,所述根据所述测试样本集中的样本对训练完成的所述神经网络模型进行准确性测试,包括:
将所述测试样本依次输入训练完成的所述神经网络模型进行分析,得到所述测试样本中包括的待跟踪对象在所述测试样本中的预测位置信息;
若所述预测位置信息与预设的样本位置信息相同的概率值大于预设的概率阈值,则判定对训练完成的所述神经网络模型的测试通过;
若所述预测位置信息与预设的样本位置信息相同的概率值小于或者等于预设的概率阈值,则判定对训练完成的所述神经网络模型的测试不通过。
在一种可选的实现方式中,所述样本包括所述监控视频流以及所述待监控对象在所述监控视频流中的最终位置信息。
本申请实施例的第三方面提供了一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上第一方面所述的目标跟踪方法的步骤。
本申请实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上第一方面所述的目标跟踪方法的步骤。
本申请第一方面实施例提供的目标跟踪方法,与现有技术相比,通过获取预设时长的监控视频流,所述监控视频流包括待监控对象;采用预设的跟踪算法分析所述监控视频流,确定所述待监控对象在所述监控视频流中的最终位置信息;确定所述最终位置信息对应的可靠性得分;若所述可靠性得分大于预设的可靠性得分阈值,则将所述最终位置信息识别为所述待监控对象的目标位置信息,所述目标位置信息为对所述待监控对象的定位结果;若所述可靠性得分小于或者等于预设的可靠性得分阈值,则根据预先训练完成的位置检测模型对所述监控视频流进行分析,得到所述待监控对象的所述目标位置信息。由于在所述可靠性得分小于或者等于预设的可靠性得分阈值,则根据预先训练完成的位置检测模型对所述监控视频流进行分析,得到所述待监控对象的所述目标位置信息,具有能够对目标进行长时间跟踪,提高跟踪效果的有益效果。
本申请第二方面至第四方面提供的实施例,与现有技术相比,存在的有益效果与本申请第一方面提供的实施例与现有技术相比,存在的有益效果相同,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请第一实施例提供的目标跟踪方法的实现流程图;
图2是图1中S102的具体实现流程图;
图3是图2中S1022的具体实现流程图;
图4是图2中S1023的具体实现流程图;
图5是本申请提供的目标跟踪装置的装置示意图;
图6是本申请提供的终端示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
通常,在目标跟踪的过程中,需要视频监控设备长时间采集包含有被监控对象的视频数据,由于在长时间内获取的视频流存在不同视角表现差异巨大的现象,而传统对监控视频流的处理流程,依赖被监控对象在初始图像帧的位置来确定被监控对象在其他图像帧的位置,这种跟踪方法只能保证短时的跟踪效果,但是无法保证长时间的跟踪效果。鉴于此,本申请实施例提供了目标跟踪方法,用于解决对目标进行长时间跟踪,跟踪效果不理想的问题。
为了说明本申请所述的技术方案,下面通过具体实施例来进行说明。如图1所示,是本申请第一实施例提供的目标跟踪方法的实现流程图,本实施例的执行主体为终端。其中,所述终端为可以让用户输入数据,及显示其计算结果的机器,在本实例中,所述终端为视频采集设备,例如,具有视频采集功能的机器人,或者监视器等。
其中,目标跟踪方法详述如下:
S101,获取预设时长的监控视频流,所述监控视频流包括待监控对象的位置信息。
其中,监控视频流为视频采集设备采集的视频流数据,在一种非限定性的应用场景下,假设视频采集设备为机器人,机器人在所述预设时长内实时跟踪待监控对象,得到包括所述待监控对象的视频流数据,该视频流数据为监控视频流。其中,待监控对象为人或者可以移动的物体。
可以理解地,视频采集设备包括实时数字视频采集设备、实时模拟视频采集设备以及录像设备等,不同的视频采集设备所述采集的视频数据形成的视频流不同,在此不做具体限定。
S102,采用预设的跟踪算法分析所述监控视频流,确定所述待监控对象在所述监控视频流中的最终位置信息。
在一种可选的实现方式中,所述预设的跟踪算法为相关滤波算法与颜色直方图概率统计算法相结合的跟踪算法,其中,所述相关滤波算法类似于一种图像块匹配的模板,图像相关操作即是采用这个模板在整个图像上进行滑动,然后计算每个滑动窗口位置的图像和这个模板的内积结果,得到的结果就是这个窗口位置的相关滤波相应值。其中,内积结果为在图像块范围内,逐像素相乘,然后累加求和得到的结果。
具体地,如图2所示,是图1中S102的具体实现流程图。由图2可知,S102包括:
S1021,获取所述监控视频流的当前图像帧。
需要说明的是,所述监控视频流由连续的图像帧构成,所述当前图像帧可以是所述监控视频流中的任意图像帧,在一种可选的实现方式中,所述当前图像帧为起始图像帧。
S1022,计算所述当前图像帧的方向梯度直方图的第一响应值。
其中,所述方向梯度直方图(Histogram of Oriented Gradient,HOG)是一种在计算机视觉和图像处理中用来进行物体检测的特征描述因子。它通过统计图像局部区域包含的物体特征的数量来构成梯度方向直方图。
所述方向梯度直方图的第一响应值为计算和统计图像局部区域的梯度方向直方图来构成特征的大小。在一种可选的实现方式中,如图3所示,是图2中S1022的具体实现流程图。由图3可知,S1022包括:
S301,获取所述当前图像帧的第一方向梯度直方图特征。
在一种可选的实现方式中,可以从所述当前图像帧中锁定待监控对象,具体地,用第一预设尺寸的矩形框选中待监控对象所在的区域,所述待监控对象所在的区域为目标区域。获取所述目标区域的第一方向梯度直方图特征。
在一种可选的实现方式中,将所述待监控对象所在的区域对应的所述矩形框放大预设比例,例如放大1.5倍之后,得到所述目标区域,可以确定对所述待监控对象跟踪的准确性。
S302,基于所述第一方向梯度直方图特征生成初始相关滤波器。
在一种可选的实现方式中,可以通过求解第一方向梯度直方图的岭回归得到,其中,岭回归(ridge regression,Tikhonov regularization)是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归方法,对病态数据的拟合要强于最小二乘法。
例如,在一种非限定性的实施方式中,
其中,ht为相关滤波器,ltmpl(h;Xt)为损失函数,用于测量滤波器相应值和设计相应值之间的差异,Xt为第一方向梯度直方图特征,‖h‖2为滤波器的欧几里德范数,Ptmpl为权重因子。
通过采用最小二乘法来进行相关滤波器的求解,得到初始相关滤波器。
S303,提取与所述当前图像帧相邻的下一图像帧的第二方向梯度直方图特征,得到第二方向梯度特征的特征图像。
其中,所述特征图像包括与所述当前图像帧相邻的下一图像帧的第二方向梯度直方图特征,也即,所述第二特征图像为第二方向梯度直方图特征构成的图像。
S304,根据所述初始相关滤波器对所述第二特征图像进行卷积操作,得到所述第一响应值。
在一种非限定的实现方式中,在所述第二特征图像中选取第二预设尺寸的目标图像块,所述第二预设尺寸大于所述第一预设尺寸,利用所述初始相关滤波器计算所述目标图像块的响应值,并利用预设的第一公式对所述目标图像块的相应值进行卷积操作,得到所述第一响应值。
其中,预设的第一公式为:
S1023,计算所述当前图像帧的颜色直方图的第二响应值。
其中,颜色直方图是在许多图像检索系统中被广泛采用的颜色特征。颜色直方图所描述的是不同色彩在整幅图像中所占的比例,而并不关心每种色彩所处的空间位置。
在一种可选的实现方式中,如图4所示,是图2中S1023的具体实现流程图。由图4可知,S1023包括:
S401,提取所述当前图像帧的颜色直方图统计信息。
在一种可选的实现方式中,可以从所述当前图像帧中锁定待监控对象,即用第一预设尺寸的矩形框选中待监控对象所在的区域,所述待监控对象所在的区域为目标区域。获取所述目标区域的颜色直方图统计信息。
在一种可选的实现方式中,将所述待监控对象所在的区域对应的所述矩形框放大预设比例,例如放大1.5倍之后,得到所述目标区域,可以确定对所述待监控对象跟踪的准确性。
S402,根据所述颜色直方图统计信息确定所述当前图像帧的颜色直方图的权重向量。
在一种非限定性的实现方式中,可以通过求解颜色直方图统计信息的岭回归的方法得到所述当前图像帧的颜色直方图的权重向量。
例如,假设所述当前图像帧的颜色直方图的权重向量为βt,则
其中,lhist(β;Xt)为损失函数,用于测量颜色直方图统计信息的线性回归值与设计回归值之间的差异,Xt为输入的颜色直方图统计信息,‖β‖2表示权重向量β的欧几里德范数,phist为权重因子。
通常采用最小二乘法求解上述权重向量,得到所述当前图像帧的颜色直方图的权重向量。
S403,基于所述权重向量计算得到所述第二响应值。
在一种可选的实现方式中,在所述当前图像帧中选取第二预设尺寸的目标图像块,利用所述当前图像帧的颜色直方图的权重向量对所述目标图像块逐像素计算直方图统计信息。根据直方图权重向量以及积分图像,计算得到所述目标图像块区域稠密的颜色直方图统计信息,所述目标图像块区域稠密的颜色直方图统计性为所述第二响应值。
S1024,将所述第一响应值和所述第二响应值进行融合,得到所述待监控对象在所述当前图像帧的最终响应值。
在一种可选的实现方式中,采用线性组合方式对速搜第一相应值和所述第二相应值进行融合,所述线性组合的计算方法为:
f(x)=γtmplftmpl(x)+γhistfhist(x)
其中,f(x)为最终响应值,γtmpl和γhist为融合系数,其中,γtmpl和γhist的值可以根据需要进行预先设置,在一种可选的实现方式中,将γtmpl和γhist分别设置为γtmpl=0.3,γhist=0.7。
S1025,基于所述最终响应值确定所述最终位置信息。
具体地,基于融合之后的响应值,查找响应极大值点,响应极大值点在图像帧中的位置即为待监控对象在当前图像帧中的位置。
在一种可选的实现方式中,基于所述最终响应值确定所述最终位置信息包括:查找所述最终响应值的极大位置点,将所述极大位置点作为所述最终位置信息。实现被监控对象在当前图像帧的定位和跟踪。
可以理解地的是,通过更新初始相关滤波器和颜色直方图的初始权重向量,可以确定所述最终位置信息。
S103,确定所述最终位置信息对应的可靠性得分。
在一种可选的实现方式中,通过预设的可靠性得分公式计算所述最终位置信息对应的可靠性得分,其中,所述预设的可靠性得分公式为:
score=αapceAPCE+αmaxFmax
其中,APCE表示最终位置信息对应的坐标值,αapce为变化系数,αmax为最终响应值对应的最大变化系数,Fmax为最终响应值。
S104,若所述可靠性得分大于预设的可靠性得分阈值,则将所述最终位置信息识别作为所述待监控对象的目标位置信息,所述目标位置信息为对所述待监控对象的定位结果。
在一种可选的实现方式中,所述预设的跟踪算法为相关滤波算法与颜色直方图概率统计算法相结合的跟踪算法,所述方法还包括:
若所述可靠性得分小于或者等于预设的可靠性得分阈值,则获取所述预先训练完成的位置检测模型对所述监控视频流进行分析之后,得到的所述目标位置信息;
根据所述目标位置信息更新所述相关滤波算法中的初始相关滤波器,以及根据所述目标位置信息更新所述颜色直方图概率统计算法中的权重向量。
上述通过获取所述预先训练完成的位置检测模型对所述监控视频流进行分析之后,得到的所述目标位置信息;根据所述目标位置信息更新所述相关滤波算法中的初始相关滤波器,以及根据所述目标位置信息更新所述颜色直方图概率统计算法中的权重向量的方法能够进一步提高所述预设的跟踪算法对所述待监控对象跟踪的准确性。
可以理解地,根据所述目标位置信息更新所述相关滤波算法中的初始相关滤波器,以及根据所述目标位置信息更新所述颜色直方图概率统计算法中的权重向量之后,可以根据更新后的所述初始相关滤波器确定所述第一响应值,以及根据更新后的所述权重向量确定所述第二响应值;将所述第一响应值和所述第二响应值进行融合,得到所述最终响应值。
由于预设的跟踪算法通过当前图像帧确定初始滤波器以及颜色直方图的初始权重向量,并根据初始滤波器以及初始权重向量更新相关滤波器和颜色直方图权重向量,最后得到待监控对象的最终位置信息,当监控时间较长时,通常待监控对象会全方位发生变化,是的预设的跟踪算法可能出现跟踪丢失的问题,因此,通过确定最终位置的可靠性得分,来确定对待监控对象跟踪的准确性。
S105,若所述可靠性得分小于或者等于预设的可靠性得分阈值,则根据预先训练完成的位置检测模型对所述监控视频流进行分析,得到所述待监控对象的所述目标位置信息。
在一种可选的实现方式中,所述预先训练完成的目标位置检测模型为神经网络模型,需要说明的是,所述神经网络模型的训练过程需要消耗较大的内存,因此,优选地,在本实施例中,利用预先确定的服务器训练所述神经网络模型,所述预先确定的服务器与终端通信连接。
在一种可选的实现方式中,所述神经网络模型的训练过程包括:
获取由预设数量的样本构建的样本集,按预设比例将所述样本集中的样本划分为训练样本和测试样本;
其中,所述样本包括所述监控视频流以及所述待监控对象在所述监控视频流中的最终位置信息。
通常,在训练神经网络模型的过程中,需要人工进行训练样本的标注,不仅浪费大量的人力,且标注的样本通常不统一并容易出现错误,在本实例中,以所述监控视频流以及所述待监控对象在所述监控视频流中的最终位置信息作为训练样本,其中,所述待监控对象在所述监控视频流中的最终位置信息为采用所述预设的跟踪算法分析所述监控视频流而得到,不需要人工进行标注,不仅提高了样本选择的效率,且能够提高准确性,使得神经网络模型的训练过程更快速准确。
在一种可选的实现方式中,所述样本包括关键图像帧以及所述待监控对象在所述监控视频流中的最终位置信息。其中所述关键图像帧为对所述监控视频流中的所有图像帧进行关键图像帧检测,并对检测得到的关键图像帧进行图像增强处理,获得的图像帧。
基于所述训练样本训练预先建立的神经网络模型,得到训练完成的所述神经网络模型。
通常根据神经网络模型的损失函数确定神经网络模型的训练是否完成,当损失函数的值在预设范围内浮动时,也即损失函数收敛后,则确定对所述神经网络模型的训练完成。但是,有可能由于服务器性能或者是输入样本导致损失函数假收敛的现象,使得训练完成的神经网络模型不一定准确。
根据所述测试样本对训练完成的所述神经网络模型进行准确性测试;
若测试通过,则将训练完成的所述神经网络模型作为训练完成的所述目标位置检测模型;
若测试不通过,则增加所述训练样本的样本数量,并执行所述基于所述训练样本集中的样本训练预先建立的神经网络模型,得到训练完成的所述神经网络模型。
在一种可选的实现方式中,所述根据所述测试样本集中的样本对训练完成的所述神经网络模型进行准确性测试,包括:
将所述测试样本依次输入训练完成的所述神经网络模型进行分析,得到所述测试样本中包括的待跟踪对象在所述测试样本中的预测位置信息;
若所述预测位置信息与预设的样本位置信息相同的概率值大于预设的概率阈值,则判定对训练完成的所述神经网络模型的测试通过;
若所述预测位置信息与预设的样本位置信息相同的概率值小于或者等于预设的概率阈值,则判定对训练完成的所述神经网络模型的测试不通过。
通过上述分析可知,本申请提出的目标跟踪方法,通过获取预设时长的监控视频流,所述监控视频流包括待监控对象;采用预设的跟踪算法分析所述监控视频流,确定所述待监控对象在所述监控视频流中的最终位置信息;确定所述最终位置信息对应的可靠性得分;若所述可靠性得分大于预设的可靠性得分阈值,则将所述最终位置信息识别为所述待监控对象的目标位置信息,所述目标位置信息为对所述待监控对象的定位结果;若所述可靠性得分小于或者等于预设的可靠性得分阈值,则根据预先训练完成的位置检测模型对所述监控视频流进行分析,得到所述待监控对象的所述目标位置信息。由于在所述可靠性得分小于或者等于预设的可靠性得分阈值,则根据预先训练完成的位置检测模型对所述监控视频流进行分析,得到所述待监控对象的所述目标位置信息,能够对目标进行长时间跟踪,提高跟踪效果。
图5是本申请提供的目标跟踪装置的装置示意图。如图5所示,该实施例的目标跟踪装置5包括:获取模块501、第一确定模块502、第二确定模块503、判定模块504以及得到模块505。其中,
第一获取模块501,用于获取预设时长的监控视频流,所述监控视频流包括待监控对象;
第一确定模块502,用于采用预设的跟踪算法分析所述监控视频流,确定所述待监控对象在所述监控视频流中的最终位置信息;
第二确定模块503,用于确定所述最终位置信息对应的可靠性得分;
判定模块504,用于在若所述可靠性得分大于预设的可靠性得分阈值,则判定所述最终位置信息为所述待监控对象的目标位置信息,所述目标位置信息为对所述待监控对象的定位结果;
得到模块505,用于在若所述可靠性得分小于或者等于预设的可靠性得分阈值,则根据预先训练完成的位置检测模型对所述监控视频流进行分析,得到所述待监控对象的所述目标位置信息。
在一种可选的实现方式中,所述预设的跟踪算法为相关滤波算法与颜色直方图概率统计算法相结合的跟踪算法,所述装置还包括:
第二获取模块,用于在若所述可靠性得分小于或者等于预设的可靠性得分阈值,则获取所述预先训练完成的位置检测模型对所述监控视频流进行分析之后,得到的所述目标位置信息;
更新模块,用于根据所述目标位置信息更新所述相关滤波算法中的初始相关滤波器,以及根据所述目标位置信息更新所述颜色直方图概率统计算法中的权重向量。
在一种可选的实现方式中,第一确定模块502,包括:
获取单元,用于获取所述监控视频流的当前图像帧;
第一计算单元,用于计算所述当前图像帧的方向梯度直方图的第一响应值;
第二计算单元,用于计算所述当前图像帧的颜色直方图的第二响应值;
融合单元,用于将所述第一响应值和所述第二响应值进行融合,得到所述待监控对象在所述当前图像帧的最终响应值;
确定单元,用于基于所述最终响应值确定所述最终位置信息。
在一种可选的实现方式中,所述第一计算单元,包括:
获取子单元,用于获取所述当前图像帧的第一方向梯度直方图特征;
生成子单元,用于基于所述第一方向梯度直方图特征生成初始相关滤波器;
第一提取子单元,用于提取与所述当前图像帧相邻的下一图像帧的第二方向梯度直方图特征,得到所述第二方向梯度直方图的特征图像;
第一得到子单元,用于根据所述初始相关滤波器对所述第二特征图像进行卷积操作,得到所述第一响应值。
在一种可选的实现方式中,第二计算单元,包括:
第二提取子单元,用于提取所述当前图像帧的颜色直方图统计信息;
确定子单元,用于根据所述颜色直方图统计信息确定所述当前图像帧的颜色直方图的权重向量;
第二得到子单元,用于基于所述权重向量计算得到所述第二响应值。
在一种可选的实现方式中,确定单元具体用于:
查找所述最终响应值的极大位置点,将所述极大位置点作为所述最终位置信息。
在一种可选的实现方式中,所述预先训练完成的目标位置检测模型为神经网络模型,所述神经网络模型的训练过程包括:
获取由预设数量的样本构建的样本集,按预设比例将所述样本集中的样本划分为训练样本和测试样本;
基于所述训练样本训练预先建立的神经网络模型,得到训练完成的所述神经网络模型;
根据所述测试样本对训练完成的所述神经网络模型进行准确性测试;
若测试通过,则将训练完成的所述神经网络模型作为训练完成的所述目标位置检测模型;
若测试不通过,则增加所述训练样本的样本数量,并执行所述基于所述训练样本集中的样本训练预先建立的神经网络模型,得到训练完成的所述神经网络模型。
在一种可选的实现方式中,所述根据所述测试样本集中的样本对训练完成的所述神经网络模型进行准确性测试,包括:
将所述测试样本依次输入训练完成的所述神经网络模型进行分析,得到所述测试样本中包括的待跟踪对象在所述测试样本中的预测位置信息;
若所述预测位置信息与预设的样本位置信息相同的概率值大于预设的概率阈值,则判定对训练完成的所述神经网络模型的测试通过;
若所述预测位置信息与预设的样本位置信息相同的概率值小于或者等于预设的概率阈值,则判定对训练完成的所述神经网络模型的测试不通过。
在一种可选的实现方式中,所述样本包括所述监控视频流以及所述待监控对象在所述监控视频流中的最终位置信息。
图6是本申请提供的终端示意图。如图6所示,该实施例的终端6包括:处理器60、存储器61以及存储在所述存储器61中并可在所述处理器60上运行的计算机程序62,例如目标跟踪程序。所述处理器70执行所述计算机程序62时实现上述各个目标跟踪方法实施例中的步骤,例如图1所示的步骤101至105。或者,所述处理器60执行所述计算机程序62时实现上述目标跟踪设备实施例中各模块/单元的功能,例如图5所示模块501至505的功能。
示例性的,所述计算机程序62可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器61中,并由所述处理器60执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序72在所述终端6中的执行过程。例如,所述计算机程序62可以被分割成获取模块、第一确定模块、第二确定模块、判定模块以及得到模块(虚拟装置中的模块),各模块具体功能如下:
获取模块,用于获取预设时长的监控视频流,所述监控视频流包括待监控对象;
第一确定模块,用于采用预设的跟踪算法分析所述监控视频流,确定所述待监控对象在所述监控视频流中的最终位置信息;
第二确定模块,用于确定所述最终位置信息对应的可靠性得分;
判定模块,用于在若所述可靠性得分大于预设的可靠性得分阈值,则判定所述最终位置信息为所述待监控对象的目标位置信息,所述目标位置信息为对所述待监控对象的定位结果;
得到模块,用于在若所述可靠性得分小于或者等于预设的可靠性得分阈值,则根据预先训练完成的位置检测模型对所述监控视频流进行分析,得到所述待监控对象的所述目标位置信息。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个通信单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (11)
1.一种目标跟踪方法,其特征在于,包括:
获取预设时长的监控视频流,所述监控视频流包括待监控对象的位置信息;
采用预设的跟踪算法分析所述监控视频流,确定所述待监控对象在所述监控视频流中的最终位置信息;
确定所述最终位置信息对应的可靠性得分;
若所述可靠性得分大于预设的可靠性得分阈值,则判定所述最终位置信息为所述待监控对象的目标位置信息,所述目标位置信息为对所述待监控对象的定位结果;
若所述可靠性得分小于或者等于预设的可靠性得分阈值,则根据预先训练完成的位置检测模型对所述监控视频流进行分析,得到所述待监控对象的所述目标位置信息。
2.如权利要求1所述的目标跟踪方法,其特征在于,所述预设的跟踪算法为相关滤波算法与颜色直方图概率统计算法相结合的跟踪算法,所述方法还包括:
若所述可靠性得分小于或者等于预设的可靠性得分阈值,则获取所述预先训练完成的位置检测模型对所述监控视频流进行分析,得到的所述目标位置信息;
根据所述目标位置信息更新所述相关滤波算法中的初始相关滤波器,以及根据所述目标位置信息更新所述颜色直方图概率统计算法中的权重向量。
3.如权利要求2所述的目标跟踪方法,其特征在于,所述采用预设的跟踪算法分析所述监控视频帧,确定待监控对象在所述监控视频流中的最终位置信息,包括:
获取所述监控视频流的当前图像帧;
计算所述当前图像帧的方向梯度直方图的第一响应值;
计算所述当前图像帧的颜色直方图的第二响应值;
将所述第一响应值和所述第二响应值进行融合,得到所述待监控对象在所述当前图像帧的最终响应值;
基于所述最终响应值确定所述最终位置信息。
4.如权利要求3所述的目标跟踪方法,其特征在于,所述计算所述当前图像帧的方向梯度直方图的第一响应值,包括:
获取所述当前图像帧的第一方向梯度直方图特征;
基于所述第一方向梯度直方图特征生成初始相关滤波器;
提取与所述当前图像帧相邻的下一图像帧的第二方向梯度直方图特征,得到所述第二方向梯度直方图的特征图像;
根据所述初始相关滤波器对所述第二特征图像进行卷积操作,得到所述第一响应值。
5.如权利要求3所述的目标跟踪方法,其特征在于,所述计算所述当前图像帧的颜色直方图的第二响应值,包括:
提取所述当前图像帧的颜色直方图统计信息;
根据所述颜色直方图统计信息确定所述当前图像帧的颜色直方图的权重向量;
基于所述权重向量计算得到所述第二响应值。
6.如权利要求3所述的目标跟踪方法,其特征在于,所述基于所述最终响应值确定所述最终位置信息,包括:
查找所述最终响应值的极大位置点,将所述极大位置点作为所述最终位置信息。
7.如权利要求1所述的目标跟踪方法,其特征在于,所述预先训练完成的目标位置检测模型为神经网络模型,所述神经网络模型的训练过程包括:
获取由预设数量的样本构建的样本集,按预设比例将所述样本集中的样本划分为训练样本和测试样本;
基于所述训练样本训练预先建立的神经网络模型,得到训练完成的所述神经网络模型;
根据所述测试样本对训练完成的所述神经网络模型进行准确性测试;
若测试通过,则将训练完成的所述神经网络模型作为训练完成的所述目标位置检测模型;
若测试不通过,则增加所述训练样本的样本数量,并执行所述基于所述训练样本集中的样本训练预先建立的神经网络模型,得到训练完成的所述神经网络模型。
8.如权利要求7所述的目标跟踪方法,其特征在于,所述根据所述测试样本集中的样本对训练完成的所述神经网络模型进行准确性测试,包括:
将所述测试样本依次输入训练完成的所述神经网络模型进行分析,得到所述测试样本中包括的待跟踪对象在所述测试样本中的预测位置信息;
若所述预测位置信息与预设的样本位置信息相同的概率值大于预设的概率阈值,则判定对训练完成的所述神经网络模型的测试通过;
若所述预测位置信息与预设的样本位置信息相同的概率值小于或者等于预设的概率阈值,则判定对训练完成的所述神经网络模型的测试不通过。
9.如权利要求7或8所述的目标跟踪方法,其特征在于,所述样本包括所述监控视频流以及所述待监控对象在所述监控视频流中的最终位置信息。
10.一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至9任一项所述目标跟踪方法的步骤。
11.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8任一项所述目标跟踪方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910935404.2A CN110738149A (zh) | 2019-09-29 | 2019-09-29 | 目标跟踪方法、终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910935404.2A CN110738149A (zh) | 2019-09-29 | 2019-09-29 | 目标跟踪方法、终端及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110738149A true CN110738149A (zh) | 2020-01-31 |
Family
ID=69269829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910935404.2A Pending CN110738149A (zh) | 2019-09-29 | 2019-09-29 | 目标跟踪方法、终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110738149A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112699832A (zh) * | 2021-01-12 | 2021-04-23 | 腾讯科技(深圳)有限公司 | 目标检测方法、装置、设备以及存储介质 |
CN116434146A (zh) * | 2023-04-21 | 2023-07-14 | 河北信服科技有限公司 | 一种三维可视化综合管理平台 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106651913A (zh) * | 2016-11-29 | 2017-05-10 | 开易(北京)科技有限公司 | 基于相关滤波和颜色直方图统计的目标跟踪方法及adas系统 |
CN109003290A (zh) * | 2017-12-11 | 2018-12-14 | 罗普特(厦门)科技集团有限公司 | 一种监控系统的视频跟踪方法 |
CN109087337A (zh) * | 2018-11-07 | 2018-12-25 | 山东大学 | 基于分层卷积特征的长时间目标跟踪方法及系统 |
US20190162507A1 (en) * | 2017-11-24 | 2019-05-30 | Huntercraft Limited | Automatic target point tracing method for electro-optical sighting system |
CN109993775A (zh) * | 2019-04-01 | 2019-07-09 | 云南大学 | 基于特征补偿的单目标跟踪方法 |
-
2019
- 2019-09-29 CN CN201910935404.2A patent/CN110738149A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106651913A (zh) * | 2016-11-29 | 2017-05-10 | 开易(北京)科技有限公司 | 基于相关滤波和颜色直方图统计的目标跟踪方法及adas系统 |
US20190162507A1 (en) * | 2017-11-24 | 2019-05-30 | Huntercraft Limited | Automatic target point tracing method for electro-optical sighting system |
CN109003290A (zh) * | 2017-12-11 | 2018-12-14 | 罗普特(厦门)科技集团有限公司 | 一种监控系统的视频跟踪方法 |
CN109087337A (zh) * | 2018-11-07 | 2018-12-25 | 山东大学 | 基于分层卷积特征的长时间目标跟踪方法及系统 |
CN109993775A (zh) * | 2019-04-01 | 2019-07-09 | 云南大学 | 基于特征补偿的单目标跟踪方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112699832A (zh) * | 2021-01-12 | 2021-04-23 | 腾讯科技(深圳)有限公司 | 目标检测方法、装置、设备以及存储介质 |
CN112699832B (zh) * | 2021-01-12 | 2023-07-04 | 腾讯科技(深圳)有限公司 | 目标检测方法、装置、设备以及存储介质 |
CN116434146A (zh) * | 2023-04-21 | 2023-07-14 | 河北信服科技有限公司 | 一种三维可视化综合管理平台 |
CN116434146B (zh) * | 2023-04-21 | 2023-11-03 | 河北信服科技有限公司 | 一种三维可视化综合管理平台 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7266106B2 (ja) | 画像座標系の変換方法並びにその、装置、機器およびコンピュータプログラム | |
CN110334569B (zh) | 客流量进出识别方法、装置、设备及存储介质 | |
CN108960114A (zh) | 人体识别方法及装置、计算机可读存储介质及电子设备 | |
CN109145803B (zh) | 手势识别方法及装置、电子设备、计算机可读存储介质 | |
CN109284737A (zh) | 一种用于智慧教室的学生行为分析和识别系统 | |
CN109299658B (zh) | 脸部检测方法、脸部图像渲染方法、装置及存储介质 | |
CN108280477A (zh) | 用于聚类图像的方法和装置 | |
JP7292492B2 (ja) | オブジェクト追跡方法及び装置、記憶媒体並びにコンピュータプログラム | |
CN110443824A (zh) | 用于生成信息的方法和装置 | |
CN110348385B (zh) | 活体人脸识别方法和装置 | |
CN113378804A (zh) | 一种自助采样的检测方法、装置、终端设备和存储介质 | |
CN110738149A (zh) | 目标跟踪方法、终端及存储介质 | |
CN112633221A (zh) | 一种人脸方向的检测方法及相关装置 | |
CN105844204B (zh) | 人体行为识别方法和装置 | |
CN108875500A (zh) | 行人再识别方法、装置、系统及存储介质 | |
CN114565976A (zh) | 一种训练智能测试方法以及装置 | |
CN109064464B (zh) | 用于检测电池极片毛刺的方法和装置 | |
CN113505720A (zh) | 图像处理方法及装置、存储介质、电子装置 | |
US20160140395A1 (en) | Adaptive sampling for efficient analysis of ego-centric videos | |
CN110633630B (zh) | 一种行为识别方法、装置及终端设备 | |
US10438066B2 (en) | Evaluation of models generated from objects in video | |
CN110751163B (zh) | 目标定位方法及其装置、计算机可读存储介质和电子设备 | |
CN111104965A (zh) | 车辆目标识别的方法及装置 | |
WO2023108782A1 (zh) | 行为识别模型训练方法及装置、行为识别方法及装置、系统、介质 | |
CN115829975A (zh) | 掌静脉图像质量检测方法、系统、介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200131 |
|
RJ01 | Rejection of invention patent application after publication |