CN112036381A - 视觉跟踪方法、视频监控方法及终端设备 - Google Patents

视觉跟踪方法、视频监控方法及终端设备 Download PDF

Info

Publication number
CN112036381A
CN112036381A CN202011209085.6A CN202011209085A CN112036381A CN 112036381 A CN112036381 A CN 112036381A CN 202011209085 A CN202011209085 A CN 202011209085A CN 112036381 A CN112036381 A CN 112036381A
Authority
CN
China
Prior art keywords
target
tracking
image
filter
video frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011209085.6A
Other languages
English (en)
Other versions
CN112036381B (zh
Inventor
周凡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Research Institute of Sun Yat Sen University
Original Assignee
Shenzhen Research Institute of Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Research Institute of Sun Yat Sen University filed Critical Shenzhen Research Institute of Sun Yat Sen University
Priority to CN202011209085.6A priority Critical patent/CN112036381B/zh
Publication of CN112036381A publication Critical patent/CN112036381A/zh
Application granted granted Critical
Publication of CN112036381B publication Critical patent/CN112036381B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本申请适用于人工智能技术领域,提供了视觉跟踪方法、视频监控方法及终端设备,利用目标滤波器对当前视频帧图像的第一图像特征进行滤波,得到响应输出矩阵,以当前视频帧图像作为训练样本训练初始滤波器,以使滤波器充分提取图像特征,从而使视觉跟踪模型在多种视频图像中均能够高效实现目标跟踪,提高视觉跟踪模型的鲁棒性。以及根据响应输出矩阵,确定跟踪目标在当前视频帧图像中的实际位置,使得跟踪效果更好。

Description

视觉跟踪方法、视频监控方法及终端设备
技术领域
本申请属于人工智能技术领域,尤其涉及计算机视觉跟踪方法、视频监控方法及终端设备。
背景技术
随着人们安全意识的提高,越来越多场所利用视频监控技术对周围环境进行监控。而为了使视频监控过程智能化,采用视觉跟踪技术对对视频图像进行监控。视觉跟踪是指计算机对视频图像中的目标进行检测、识别和跟踪,以获得该目标在视频序列中的位置、速度以及轨迹等信息的过程。
在相关技术中,目前的跟踪模型通常基于历史视频序列训练得到,其在一般的跟踪场景下有不错的跟踪效果。但是当视频图像具有复杂的跟踪背景、光照变化和图像噪声,以及跟踪目标出现遮挡、旋转、尺寸变化和姿态变化时,当前跟踪模型难以识别跟踪背景的复杂变化和跟踪目标的表观变化,从而导致视觉跟踪模型的跟踪效果变差。可见当前的视觉跟踪模型存在鲁棒性差的问题。
发明内容
本申请实施例提供了计算机视觉跟踪方法、视频监控方法及终端设备,可以解决当前视觉跟踪方法存在鲁棒性差的问题。
第一方面,本申请实施例提供了一种视觉跟踪方法,包括:
利用目标滤波器对当前视频帧图像的第一图像特征进行滤波,得到响应输出矩阵,目标滤波器通过当前视频帧图像的上一视频帧图像经初等变换后得到的多个训练样本进行训练得到;
根据响应输出矩阵,确定跟踪目标在当前视频帧图像中的实际位置。
本申请实施例提供的视觉跟踪方法,由于目前是基于历史视频序列作为训练样本训练得到初始滤波器,并将初始滤波器作为第一帧视频图像的目标滤波器,其无法充分考虑该视频图像的图像特征,因此本实施例利用目标滤波器对当前视频帧图像的第一图像特征进行滤波,得到响应输出矩阵,以当前视频帧图像作为训练样本训练初始滤波器,以使滤波器充分提取图像特征,从而使视觉跟踪模型能够识别跟踪背景的复杂变化和跟踪目标的表观变化,进而在多种视频图像中均能够高效实现目标跟踪,提高视觉跟踪模型的鲁棒性。以及根据响应输出矩阵,确定跟踪目标在当前视频帧图像中的实际位置,使得跟踪效果更好。
第二方面,本申请实施例提供了一种视频监控方法,包括:
针对监控视频中的每一帧监控图像,利用目标滤波器对监控图像的第一图像特征进行滤波,得到响应输出矩阵,目标滤波器利用当前监控图像的上一帧监控图像经过初等变换后得到的多个训练样本进行训练得到;
根据响应输出矩阵,确定跟踪目标在每一帧监控图像中的实际位置;
根据跟踪目标在每一帧监控图像中的实际位置,确定跟踪目标的行为信息;
基于行为信息,确定跟踪目标的异常情况。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面中任一项所述的视觉跟踪方法,或如上述第二方面中所述的视频监控方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面中任一项所述的视觉跟踪方法,或如上述第二方面中所述的视频监控方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的视觉跟踪方法,或如上述第二方面中所述的视频监控方法。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的视觉跟踪方法的流程示意图;
图2是本申请另一实施例提供的视觉跟踪方法的流程示意图;
图3是本申请实施例提供的视频监控方法的流程示意图;
图4是本申请实施例提供的视觉跟踪装置的结构示意图;
图5是本申请实施例提供的视频监控装置的结构示意图;
图6是本申请实施例提供的终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
如背景技术相关记载,目前的跟踪模型通常基于历史视频序列训练得到,其在一般的跟踪场景下有不错的跟踪效果。但是当视频图像具有复杂的跟踪背景、光照变化和图像噪声,以及跟踪目标出现遮挡、旋转、尺寸变化和姿态变化时,当前跟踪模型难以识别跟踪背景的复杂变化和跟踪目标的表观变化,从而导致视觉跟踪模型的跟踪效果变差。可见当前的视觉跟踪模型存在鲁棒性差的问题。
有鉴于此,本申请实施例提供一种视觉跟踪方法,通过利用目标滤波器对当前视频帧图像的第一图像特征进行滤波,得到响应输出矩阵,以当前视频帧图像作为训练样本训练初始滤波器,以使滤波器充分提取图像特征,从而使视觉跟踪模型在多种视频图像中均能够高效实现目标跟踪,提高视觉跟踪模型的鲁棒性。以及根据响应输出矩阵,确定跟踪目标在当前视频帧图像中的实际位置,使得跟踪效果更好。
请参阅图1,图1示出了本申请提供的视觉跟踪方法的示意性流程图。本实施例提供的视觉跟踪方法的执行主体为终端设备,终端设备包括但不限于智能手机、平板电脑、监控摄像机、台式电脑等终端设备。如图1所示的视觉跟踪方法包括步骤S101至S102,详述如下:
S101,利用目标滤波器对当前视频帧图像的第一图像特征进行滤波,得到响应输出矩阵,目标滤波器利用当前视频帧图像的上一视频帧图像经过初等变换后得到的多个训练样本进行训练得到。
在本实施例中,目标滤波器为过滤出图像中的跟踪目标的视觉跟踪模型,目标滤波器可以为相关滤波器,例如核相关滤波器(Kernelized Correlation Filter,KCF)、双相关滤波器(Dual Correlation Filter,DCF)、基于均方误差(Minimum Output Sum ofSquared Error,MOSSE)构造的相关滤波器等。“相关”是对两个信号量的相似程度的度量,即两个信号之间的互相关性。在视觉跟踪中,就是设计一个滤波器h ,当其和图像f 进行相关操作,在响应输出g (响应输出矩阵)中跟踪目标所在的位置得到的响应值最大,同时利用当前帧的信息对滤波器进行实时的更新。
当前视频帧图像是指显示单元当前所显示的某一张视频画面。第一图像特征为可能出现跟踪目标的图像区域对应的图像特征,该图像区域基于上一视频帧图像确定。第一图像特征包括但不限于深度特征、方向梯度直方图(Histogram of Oriented Gradient,HOG)特征和颜色特征。深度特征能够使跟踪目标在位移、尺度、形变等方面具有不变性,HOG特征能较好的保持图像几何的形变不变性,以更好的表征跟踪目标的表观变化,以及结合颜色特征,以更好的表征跟踪背景的复杂变化,从而提高视觉跟踪模型的鲁棒性。
在一可能实现的方式中,利用目标滤波器对当前视频帧图像的第一图像特征进行滤波,得到响应输出矩阵之前,还包括:基于预设的卷积神经网络,对当前视频帧图像的第一目标区域进行特征提取,得到第一目标区域的深度特征;根据第一目标区域的局部梯度方向信息和颜色信息,对第一目标区域进行特征提取,得到第一目标区域的HOG特征和颜色特征;将深度特征、HOG特征和颜色特征作为第一图像特征。
本实施例中,第一目标区域为可能存在跟踪目标的图像区域,可以根据上一视频帧图像确定的跟踪目标的位置,确定该图像区域。例如,以根据上一视频帧图像确定的跟踪目标的位置为中心,预设区域大小的图像区域作为第一目标区域。
卷积神经网络和传统的神经网络采用全链接不同,卷积神经网络使用局部链接的方式来减少网络训练的参数,同时卷积神经网络采用权值共享以及子采样三层网络结构来模拟动物视觉皮层结构。局部连接和权值共享对应网络的卷积层(Convolutions),而子采样操作也称为池化(Pooling)操作,对应网络的子采样层(Subsampling)。通过卷积和池化的网络连接方式,使得卷积神经网络和生物神经网络具有高度的相似性,有效的模拟了生物视觉机制。其中,权值共享使得输入信号在发生平移变化时,神经元受到的“刺激”是相同的,所以权值共享使得卷积神经网络具有一定的平移不变性;同时,根据图像局部相关性原理,子采样操作能保留有用信息,并有效的减少神经元的数目,降低了后面的网络复杂度,同时当输入信号局部变化时,提取出的深度特征具有一定的不变性。所以,利用深度特征可在跟踪过程中当跟踪目标发生尺度和形变时,能增加视觉跟踪的适应性。可选地,通过MatConvNet工具箱和 imagenet-vgg-f网络计算出输入当前视频帧图像所对应的卷积层深度特征。
进一步地,对图像的局部梯度方向信息进行计算,并用直方图进行统计和描述。由于HOG 特征通过图像的局部梯度方向信息提取特征,所以当图像发生较大的旋转缩放时,对跟踪的结果影响不会太大,即HOG 特征能较好的保持图像几何的形变的不变性。
在一实施例中,目标滤波器的训练过程,包括:对当前视频帧图像的上一视频帧图像的第二目标区域进行特征提取,得到第二图像特征;对第二图像特征进行初等变换,得到多个图像特征样本;利用多个图像特征样本对预设滤波器进行训练,直至预设滤波器的代价函数达到预设值,得到目标滤波器。
本实施例中,由于当前预设滤波器采用历史视频序列作为训练样本训练出初始滤波器,并将初始滤波器作为第一帧视频图像的目标滤波器,其无法充分考虑该视频图像的图像特征,因此本实施例以当前视频帧图像作为训练样本训练初始滤波器,以使滤波器充分提取图像特征,从而使视觉跟踪模型在多种视频图像中均能够高效实现目标跟踪,提高视觉跟踪模型的鲁棒性。
第二目标区域为可能出现跟踪目标的图像区域,其有上一视频帧图像的上上一视频帧图像确定,具体过程类似于第一目标区域的确定过程,请参照前述部分,在此不再赘述。为了提高滤波器的性能,通过初等矩阵对候选区域进行初等变换,得到了更多的训练样本来更新当前的滤波器。初等变换为对特征矩阵进行变换的过程,具体为矩阵的初等变换。代价函数为滤波器的损失函数,通过多个训练样本对预设滤波器进行迭代训练,直至代价函数的函数值达到预设值,则训练完成得到目标滤波器。可以理解的是,若当前视频帧图像为视频中的第一帧图像,则预设滤波器为预先设置的滤波器,若当前视频帧图像不为视频中的第一帧图像,则预设滤波器为上一视频帧图像对应的目标滤波器。
可选地,代价函数的计算公式为:
Figure 476397DEST_PATH_IMAGE001
其中
Figure 351949DEST_PATH_IMAGE002
表示代价函数值,t表示训练样本数量,
Figure 240139DEST_PATH_IMAGE003
表示控制每一帧样本的权重系数,F表 示滤波模板,X表示训练样本,Y表示目标输出,
Figure 542945DEST_PATH_IMAGE004
表示L2范数对
Figure 900108DEST_PATH_IMAGE005
的 正则化约束,
Figure 313772DEST_PATH_IMAGE006
表示L2范数对
Figure 324978DEST_PATH_IMAGE007
的正则化约束,
Figure 798684DEST_PATH_IMAGE008
表示用于控制正则项的权重。
进一步地,引入循环矩阵以解决视觉跟踪过程中,跟踪目标候选集存在的冗余现象,循环矩阵可以通过傅里叶变换进行对角化,对矩阵进行分解,从而加快模型的运算速。但引入循环矩阵理论后会导致在模型训练和预测阶段产生循环卷积边界效应,从而使得跟踪模型难以适应大幅度形变、遮挡以及快速运动等。为此,通过空间正则化的约束,将滤波器模板参数的更新主要集中在一个搜索区域中的跟踪目标的中心,在目标区域以外的背景区域处滤波器模板参数应尽可能地小或者为0。加入空间权重系数w后,视觉跟踪模型的代价函数变为:
Figure 643143DEST_PATH_IMAGE009
其中w表示空间权重系数(惩罚权重系数),其中惩罚权重系数w边界的值更大,即表示 惩罚越大,从而使得滤波器的更新主要集中在跟踪目标的中心区域;M表示距离空间权重系 数中心的行数,N表示距离空间权重系数中心的列数,
Figure 594919DEST_PATH_IMAGE010
表示L2范数对
Figure 333068DEST_PATH_IMAGE011
的正则化 约束。
在一实施例中,对当前视频帧图像的上一视频帧图像的第二目标区域进行特征提取,得到第二图像特征之前,包括:提取上一视频帧图像中多种尺度大小的多个图像区域;将多个图像区域进行缩放,得到相同尺寸大小的多个第二目标区域。
本实施例中,为了对视觉跟踪过程中跟踪目标尺度变化的进行估计,通过构建金字塔模型来实现,以增加模型应对跟踪目标尺度变化的适性。具体的,在提取跟踪候选区域时,通过上一帧预测的区域中心及大小,来构建大、中、小三个尺度,其中尺度对应为原始的区域的大小,而大、小尺度分别比原始区域偏大和偏小。在视觉跟踪过程中,因为视觉跟踪模型并不需要提取有位置信息的特征,因此并不训练多个尺度滤波器,而是对提取出来的不同尺度大小的区域图像进行缩放到相同的大小,然后进行深度特征、HOG特征以及颜色特征的提取,将这些变换为一维向量构造金字塔模型,最后不同尺度所提取的特征作用到上述训练得到的滤波器上,选取最大的响应输出的尺度作为当前帧中,跟踪目标的尺度变化率。
在一实施例中,利用目标滤波器对当前视频帧图像的第一图像特征进行滤波,得到响应输出矩阵,包括:对第一图像特征和目标滤波器进行快速傅里叶变换,得到变换后的第一图像特征和目标滤波器;对变换后的第一图像特征与变换后的目标滤波器进行乘积,得到响应矩阵;将响应矩阵进行反快速傅里叶变换,得到响应输出矩阵。
在本实施例中,为了达到快速跟踪的效果,目标滤波器通过快速傅里叶变换将图 像的相关操作从空间域转到频率域上进行。首先对滤波器h进行快速傅里叶变换:
Figure 102310DEST_PATH_IMAGE012
,同时对图像f也进行快速傅里叶变换:
Figure 558699DEST_PATH_IMAGE013
。根据相关定理,在空间域中的两个函数的 相关操作,等同于将两个函数分别进行快速傅里叶变换后复数的乘积:
Figure 189531DEST_PATH_IMAGE014
;随后可以通过快速傅里叶变换的逆变换,将频域率的响应输出 转换到空间域中对应的响应输出矩阵。
S102,根据响应输出矩阵,确定跟踪目标在当前视频帧图像中的实际位置。
在本实施例中,通过在训练样本中建立一个隐式插值模型,来学习一个连续的卷积算子,将其作用于提取出的深度特征,可以使得卷积特征中目标位置信息特征更加的明显。具体的,在视觉跟踪过程中跟踪目标位置的预测,是通过提取的深度特征和滤波器作用得到的响应输出,根据前面帧和当前帧的最大响应输出坐标的相对位置,可以计算出跟踪目标的偏移值。通过隐式插值操作,能使卷积特征更好的表达跟踪目标的位置信息,以增加跟踪模型的跟踪准确性。最后,通过计算相对位移就能得到跟踪目标的实际位置。
在一实施例中,第一图像特征中的多个特征对应多个响应输出矩阵,根据响应输出矩阵,确定跟踪目标在当前视频帧图像中的实际位置,包括:将多个响应输出矩阵变换为相同矩阵大小,得到相同矩阵大小的多个响应值图;根据每个响应值图,计算跟踪目标的相对偏移值;根据相对偏移值,确定跟踪目标在当前视频帧图像中的实际位置。
本实施例中,卷积神经网络是通过模拟动物视觉皮层结构来提取深度特征的,不同的网络层输出的特征有着不同级别的语义信息,将这些深度特征融合在的视觉跟踪模型中。具体的利用MatConvNet工具箱和imagenet-vgg-f网络,提取出样本第1、4、11和21层的卷积特征。其中,某些层输出的卷积特征会太大,如第一层的卷积特征,通过取平均值的池化操作对其进行降维。同时,为了更好的对跟踪目标表观进行描述,还提取样本的HOG特征和颜色特征,最后将这些特征都融合到模型中。
为了将这些特征都融入到的模型中,需要分别对每一种特征学习一个滤波器,即需要学习6种特征的滤波器,每一种滤波器的训练和更新都是相互独立的。由于卷积神经网络提取的深度特征,每一层的输出的特征大小不一样,所以每一种滤波器的大小也是不一样,对应的输出也就不一样。为了将每种特征计算出来的目标偏移值度量一样,需要将响应输出矩阵的大小变为一样。具体地,选取出大小最大的响应输出,然后将其他特征的响应输出通过填充列数和行数的方式来补全元素,补全方式通过围绕边界进行镜像反射来扩展。
同时,由于训练了多种滤波器得到多种响应输出,在 HOG 特征和灰度特征得到的响应值图中,响应值最大的位置即为预测跟踪目标的位置,但在深度特征中缺乏了目标的位置信息,所以得到响应输出最大值对应的坐标并非跟踪目的实际位置,所以需要计算相对的距离及相对的区域大小关系,来得到具体的位置。具体地,需要计算每一种响应值图中,跟踪目标发生的相对偏移值,然后将这些进行加权平均,在在得到实际的目标偏移值后,进行目标位置的更新。
在一实施例中,根据相对偏移值,确定跟踪目标在当前视频帧图像中的实际位置之后,还包括:检测跟踪目标是否发生跟踪漂移;若跟踪目标发生跟踪漂移,则对跟踪目标进行重定位。
本实施例中,在基于相关滤波的视觉跟踪中,跟踪目标的预测是根据响应输出矩阵来确定。同时响应图的分布情况可以反出跟踪效果,当被跟踪目标被正确的跟踪时,响应值较大的值会集中在一个小半径区域,当跟踪结果发生误差时,响应值较大的值会集中在半径会大于正常跟踪结果对应的区域半径;特别地,当跟踪结果发生严重漂移,甚至跟踪失败的时候,响应值较大的值所对应的区域的半径会远远大于正常跟踪结果对应的区域半径。因此本实施例针对跟踪漂移进行检测和修正。
可选地,检测跟踪目标是否发生跟踪漂移,包括:根据预设检测条件检测跟踪目标是否发生跟踪漂移,预设检测条件为:
Figure 516607DEST_PATH_IMAGE015
Figure 456751DEST_PATH_IMAGE016
,t=1,
Figure 134857DEST_PATH_IMAGE017
Figure 694014DEST_PATH_IMAGE018
,t>1,
其中
Figure 282121DEST_PATH_IMAGE019
表示所述响应值图中大于第一预设值的区域半径,
Figure 737373DEST_PATH_IMAGE020
表示所述响应值图中大于 第二预设值的区域半径,
Figure 292988DEST_PATH_IMAGE021
Figure 124678DEST_PATH_IMAGE022
为预设值参考值,
Figure 957505DEST_PATH_IMAGE023
为学习速率,t为帧序号,所述第一预设 值小于所述第二预设值;
Figure 724604DEST_PATH_IMAGE024
Figure 642881DEST_PATH_IMAGE025
,则判定所述跟踪目标发生跟踪漂移,k表示预设常数。
本实施例中,根据响应图中较大响应值主要集中的区域大小,来对本帧视频图像 进行跟踪修正。具体地,设定的一预设值和第二预设值,响应图中大于第一预设值的响应值 的区域所对应的半径记为
Figure 665545DEST_PATH_IMAGE019
,响应图中大于第二预设值的响应值的区域所对应的半径记为
Figure 821720DEST_PATH_IMAGE020
。同时设定一对参考值
Figure 25299DEST_PATH_IMAGE021
Figure 899715DEST_PATH_IMAGE022
,用于衡量
Figure 604365DEST_PATH_IMAGE020
Figure 5260DEST_PATH_IMAGE026
是否满足跟踪要求。
进一步地,若跟踪目标发生跟踪漂移,则对跟踪目标进行重定位,包括:若跟踪目标发生跟踪漂移,则基于预设粒子群搜索算法,将响应值图中的响应值作为粒子的适应值,并对所有粒子组成的粒子群进行搜索;将搜索得到的适应值最大的粒子所对应的位置作为跟踪目标的中心。
在本实施例中,在视觉跟踪过程中,当在某一帧视频图像中判定为漂移时,采用粒子群优化搜索算法来进行重新定位。粒子群搜索算法的主要思想是,在当前帧图像上,利用粒子群优化策略进行最优解搜索,得到最优解即为重新定位的跟踪目标的位置。粒子群搜索算法是一个迭代的过程,每个种子会以一定的速度和方向进行移动,为了防止算法陷入局部最优,每个种子都以每次迭代最优解的反方向进行种子速度和方向的更新,扩大搜索的范围。可选地,使用图像的HOG特征和对应的滤波器得到的响应值作为当前粒子的适应值,在粒子群搜索完毕后,将适应值最大的粒子所对应的位置作为跟踪目标的中心。
请参阅图2,在图1实施例的基础上,图2示出了本申请另一实施例提供的一种视觉跟踪方法的具体实现流程图。如图2所示,步骤S102之后还包括步骤S201至S204。应理解,与图1实施例相同的步骤,此处不再描述。
S201,根据跟踪目标在当前视频帧图像中的实际位置和预设尺寸,提取当前视频帧图像的多个第三目标区域,并将多个第三目标区域作为测试样本。
S202,对多个第三目标区域进行特征提取,得到多个第三图像特征。
在本实施例中,通过在跟踪过程中收集到的跟踪目标样本,训练支持向量机分类器模型。当对新的一帧进行预测时,根据上一帧图像预测的位置和多个尺度提取出多个图像作为当前测试样本,对测试样本进行相同的特征提取后,用分类器对其进行分类。
S203,基于目标分类器,对多个第三图像特征进行分类,得到分类结果,目标分类器利用跟踪过程中收集到的视频帧图像对预设分类器进行训练得到。
在本实施例中,在跟踪过程中经常会出现遮挡的现象,如果不能及时发现这种现象,而把遮挡的物体错误的认为是跟踪目标,会对后续跟踪产生巨大的影响,严重时甚至导致会跟踪失败。因此通过建立一个在线学习的支持向量机分类器的方法来应对遮挡的情况。可以理解的是,目标分类器基于支持向量机构建得到。
S204,若分类结果为测试样本不是正样本,则判定跟踪目标出现遮挡。
在本实施例中,当判定为正样本时,则认为本视频帧跟踪准确;否则判定为跟踪目标出现了遮挡的情况,由于在目标被遮挡时,预测的目标位置不精准,同时候选区域中的目标表观也并非跟踪目标实际的表观,所以此时不对滤波器进行更新,同时在后续的跟踪中,当初次检测出为非遮挡的情况时,利用现有样本对分类器模型重新训练,以保证其预测的准确率。
请参阅图3,图3示出了本申请实施例提供的视频监控方法的示意性流程图。本实施例提供的视觉跟踪方法的执行主体为终端设备,终端设备包括但不限于智能手机、平板电脑、监控摄像机、台式电脑等终端设备。如图3所示的视觉跟踪方法包括步骤S301至S304,详述如下:
S301,针对监控视频中的每一帧监控图像,利用目标滤波器对监控图像的第一图像特征进行滤波,得到响应输出矩阵,目标滤波器利用当前监控图像的上一帧监控图像经过初等变换后得到的多个训练样本进行训练得到。
S302,根据响应输出矩阵,确定跟踪目标在每一帧监控图像中的实际位置。
在本实施例中,S301和S302的过程可参照上述视觉跟踪方法的步骤解释,此处不再赘述。
S303,根据跟踪目标在每一帧监控图像中的实际位置,确定跟踪目标的行为信息。
在本实施例中,当识别出跟踪目标后,从出现在监控区域到当前时间过程中,获取跟踪目标的位置、速度、停留时间等信息,通过分析这些信息来分析跟踪目标的行为信息,以用于判断监控区域是否可能出现异常的情况。例如,当某一个跟踪目标在同一位置出现了时间过长时,则可以视为异常情况并发出警报,督促监控人员观察该目标是否出现了突然晕倒的情况;当某个跟踪目标的速度过快时,也可以视为异常情况并发出警报,督促监控人员观察该跟踪目标是否为小偷在逃跑。
S304,基于行为信息,确定跟踪目标的异常情况。
在本实施例中,在视觉跟踪中,在一些复杂的监控场景中进行多目标跟踪时,由于跟踪目标的数量过多以及轨迹混乱等情况,往往会导致跟踪失败的发生。所以在复杂场景的智能监控中,通过多目标跟踪来进行异常事件检测的很困难的。因此可以利用稀疏表示的方法来对构造出一个正常事件模式的字典,然后根据字典的重构误差来判断一个新的事件模式是否为异常事件。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的视觉跟踪方法,图4示出了本申请实施例提供的视觉跟踪装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图4,该视觉跟踪装置包括:
滤波模块401,用于利用目标滤波器对当前视频帧图像的第一图像特征进行滤波,得到响应输出矩阵,目标滤波器利用当前视频帧图像的上一视频帧图像初等变换后得到的多个训练样本进行训练得到;
第一确定模块402,用于根据响应输出矩阵,确定跟踪目标在当前视频帧图像的实际位置。
在一实施例中,上述视觉跟踪装置,还包括:
第一提取模块,用于基于预设的卷积神经网络,对当前视频帧图像的第一目标区域进行特征提取,得到第一目标区域的深度特征;
第二提取模块,用于根据第一目标区域的局部梯度方向信息和颜色信息,对第一目标区域进行特征提取,得到第一目标区域的HOG特征和颜色特征;
作为模块,用于将深度特征、HOG特征和颜色特征作为第一图像特征。
在一实施例中,上述滤波模块,具体用于:
对第一图像特征和目标滤波器进行快速傅里叶变换,得到变换后的第一图像特征和目标滤波器;
对变换后的第一图像特征与变换后的目标滤波器进行乘积,得到响应矩阵;
将响应矩阵进行反快速傅里叶变换,得到响应输出矩阵。
在一实施例中,上述视觉跟踪装置,还包括:
第三提取模块,用于对当前视频帧图像的上一视频帧图像的第二目标区域进行特征提取,得到第二图像特征;
变换模块,用于对第二图像特征进行初等变换,得到多个图像特征样本;
训练模块,用于利用多个图像特征样本对预设滤波器进行训练,直至预设滤波器的代价函数达到预设值,得到目标滤波器。
在一实施例中,代价函数的计算公式为:
Figure 504374DEST_PATH_IMAGE027
其中
Figure 7031DEST_PATH_IMAGE002
表示代价函数值,t表示训练样本数量,
Figure 984214DEST_PATH_IMAGE003
表示控制每一帧样本的权重系数,F表 示滤波模板,X表示训练样本,Y表示目标输出,w表示空间权重系数,M表示距离空间权重系 数中心的行数,N表示距离空间权重系数中心的列数,
Figure 380560DEST_PATH_IMAGE004
表示L2范数对
Figure 175210DEST_PATH_IMAGE005
的正则化约束,
Figure 24217DEST_PATH_IMAGE010
表示L2范数对
Figure 680458DEST_PATH_IMAGE011
的正则化约束。
在一实施例中,上述视觉跟踪装置还包括:
第四提取模块,用于提取上一视频帧图像中多种尺度大小的多个图像区域;
缩放模块,用于将多个图像区域进行缩放,得到相同尺寸大小的多个第二目标区域。
在一实施例中,第一图像特征中的多个特征对应多个响应输出矩阵,第一确定模块具体用于:
将多个响应输出矩阵变换为相同矩阵大小,得到相同矩阵大小的多个响应值图;
根据每个响应值图,计算跟踪目标的相对偏移值;
根据相对偏移值,确定跟踪目标在当前视频帧图像中的实际位置。
在一实施例中,第一确定模块还具体用于:
检测跟踪目标是否发生跟踪漂移;
若跟踪目标发生跟踪漂移,则对跟踪目标进行重定位。
在一实施例中,第一确定模块还具体用于:
根据预设检测条件检测跟踪目标是否发生跟踪漂移,预设检测条件为:
Figure 196890DEST_PATH_IMAGE015
Figure 162440DEST_PATH_IMAGE016
,t=1,
Figure 498744DEST_PATH_IMAGE017
Figure 83309DEST_PATH_IMAGE018
,t>1,
其中
Figure 64034DEST_PATH_IMAGE019
表示所述响应值图中大于第一预设值的区域半径,
Figure 810274DEST_PATH_IMAGE020
表示所述响应值图中大于 第二预设值的区域半径,
Figure 633873DEST_PATH_IMAGE021
Figure 149693DEST_PATH_IMAGE022
为预设值参考值,
Figure 109558DEST_PATH_IMAGE023
为学习速率,t为帧序号,所述第一预设 值小于所述第二预设值;
Figure 167644DEST_PATH_IMAGE024
Figure 744119DEST_PATH_IMAGE025
,则判定所述跟踪目标发生跟踪漂移,k表示预设常数。
在一实施例中,第一确定模块还具体用于:
若跟踪目标发生跟踪漂移,则基于预设粒子群搜索算法,将响应值图中的响应值作为粒子的适应值,并对所有粒子组成的粒子群进行搜索;
将搜索得到的适应值最大的粒子所对应的位置作为跟踪目标的中心。
在一实施例中,视觉跟踪装置,还包括:
第五提取模块,用于根据跟踪目标在当前视频帧图像中的实际位置和预设尺寸,提取当前视频帧图像的多个第三目标区域,并将多个第三目标区域作为测试样本;
第六提取模块,用于对多个第三目标区域进行特征提取,得到多个第三图像特征;
分类模块,用于基于目标分类器,对多个第三图像特征进行分类,得到分类结果,目标分类器利用跟踪过程中收集到的视频帧图像对预设分类器进行训练得到;
判定模块,用于若分类结果为测试样本不是正样本,则判定跟踪目标出现遮挡。
对应于上文实施例所述的视频监控方法,图5示出了本申请实施例提供的视频监控装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图5,该视频监控装置包括:
监控模块501,用于针对监控视频中的每一帧监控图像,利用目标滤波器对所述监控图像的第一图像特征进行滤波,得到响应输出矩阵,所述目标滤波器利用所述当前监控图像的上一帧监控图像经过初等变换后得到的多个训练样本进行训练得到;
第二确定模块502,用于根据所述响应输出矩阵,确定所述跟踪目标在每一帧监控图像中的实际位置;
第三确定模块503,用于根据所述跟踪目标在每一帧监控图像中的实际位置,确定所述跟踪目标的行为信息;
第四确定模块504,用于基于所述行为信息,确定所述跟踪目标的异常情况。
需要说明的是,上述视觉跟踪装置和视频监控装置中各个模块之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图6为本申请一实施例提供的终端设备的结构示意图。如图6所示,该实施例的终端设备6包括:至少一个处理器60(图6中仅示出一个)处理器、存储器61以及存储在所述存储器61中并可在所述至少一个处理器60上运行的计算机程序62,所述处理器60执行所述计算机程序62时实现上述任意方法实施例中的步骤。
所述终端设备6可以是手机、桌上型计算机、笔记本等计算设备。该终端设备可包括但不仅限于处理器60、存储器61。本领域技术人员可以理解,图6仅仅是终端设备6的举例,并不构成对终端设备6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器60可以是中央处理单元(Central Processing Unit,CPU),该处理器60还可以是其他通用处理器、数字信号处理器 (Digital Signal Processor,DSP)、专用集成电路 (Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA) 或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器61在一些实施例中可以是所述终端设备6的内部存储单元,例如终端设备6的硬盘或内存。所述存储器61在另一些实施例中也可以是所述终端设备6的外部存储设备,例如所述终端设备6上配备的插接式硬盘,智能存储卡(Smart Media Card, SMC),安全数字(Secure Digital, SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器61还可以既包括所述终端设备6的内部存储单元也包括外部存储设备。所述存储器61用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种视觉跟踪方法,其特征在于,包括:
利用目标滤波器对当前视频帧图像的第一图像特征进行滤波,得到响应输出矩阵,所述目标滤波器利用所述当前视频帧图像的上一视频帧图像经过初等变换后得到的多个训练样本进行训练得到;
根据所述响应输出矩阵,确定跟踪目标在当前视频帧图像中的实际位置。
2.如权利要求1所述的视觉跟踪方法,其特征在于,所述利用目标滤波器对当前视频帧图像的第一图像特征进行滤波,得到响应输出矩阵之前,还包括:
基于预设的卷积神经网络,对所述当前视频帧图像的第一目标区域进行特征提取,得到所述第一目标区域的深度特征;
根据所述第一目标区域的局部梯度方向信息和颜色信息,对所述第一目标区域进行特征提取,得到所述第一目标区域的HOG特征和颜色特征;
将所述深度特征、HOG特征和颜色特征作为所述第一图像特征。
3.如权利要求1所述的视觉跟踪方法,其特征在于,所述目标滤波器的训练过程,包括:
对所述当前视频帧图像的上一视频帧图像中的第二目标区域进行特征提取,得到第二图像特征;
对所述第二图像特征进行初等变换,得到多个图像特征样本;
利用多个所述图像特征样本对预设滤波器进行训练,直至所述预设滤波器的代价函数达到预设值,得到所述目标滤波器。
4.如权利要求3所述的视觉跟踪方法,其特征在于,所述代价函数的计算公式为:
Figure 925823DEST_PATH_IMAGE001
其中
Figure 639701DEST_PATH_IMAGE002
表示代价函数值,t表示训练样本数量,
Figure 825963DEST_PATH_IMAGE003
表示控制每一帧样本的权重系数,F表 示滤波模板,X表示训练样本,Y表示目标输出,w表示空间权重系数,M表示距离空间权重系 数中心的行数,N表示距离空间权重系数中心的列数,
Figure 752331DEST_PATH_IMAGE004
表示L2范数对
Figure 222495DEST_PATH_IMAGE005
的正则化约束,
Figure 576116DEST_PATH_IMAGE006
表示L2范数对
Figure 984095DEST_PATH_IMAGE007
的正则化约束。
5.如权利要求3所述的视觉跟踪方法,其特征在于,所述对所述当前视频帧图像的上一视频帧图像的第二目标区域进行特征提取,得到第二图像特征之前,包括:
提取所述上一视频帧图像中多种尺度大小的多个图像区域;
将多个所述图像区域进行缩放,得到相同尺寸大小的多个所述第二目标区域。
6.如权利要求1所述的视觉跟踪方法,其特征在于,所述根据所述响应输出矩阵,确定跟踪目标在当前视频帧图像中的实际位置之后,还包括:
检测所述跟踪目标是否发生跟踪漂移;
若所述跟踪目标发生跟踪漂移,则对所述跟踪目标进行重定位。
7.如权利要求6所述的视觉跟踪方法,其特征在于,所述检测所述跟踪目标是否发生跟踪漂移,包括:
根据预设检测条件检测所述跟踪目标是否发生跟踪漂移,所述预设检测条件为:
Figure 714154DEST_PATH_IMAGE008
Figure 41754DEST_PATH_IMAGE009
,t=1,
Figure 300697DEST_PATH_IMAGE010
Figure 586185DEST_PATH_IMAGE011
,t>1,
其中
Figure 729722DEST_PATH_IMAGE012
表示所述响应值图中大于第一预设值的区域半径,
Figure 518686DEST_PATH_IMAGE013
表示所述响应值图中大于 第二预设值的区域半径,
Figure 604323DEST_PATH_IMAGE014
Figure 377107DEST_PATH_IMAGE015
为预设值参考值,
Figure 58755DEST_PATH_IMAGE016
为学习速率,t为帧序号,所述第一预设 值小于所述第二预设值;
Figure 967805DEST_PATH_IMAGE017
Figure 834130DEST_PATH_IMAGE018
,则判定所述跟踪目标发生跟踪漂移,k表示预设常数。
8.如权利要求6所述的视觉跟踪方法,其特征在于,所述若所述跟踪目标发生跟踪漂移,则对所述跟踪目标进行重定位,包括:
若所述跟踪目标发生跟踪漂移,则基于预设粒子群搜索算法,将所述响应值图中的响应值作为粒子的适应值,并对所有所述粒子组成的粒子群进行搜索;
将搜索得到的所述适应值最大的粒子所对应的位置作为所述跟踪目标的中心。
9.一种视频监控方法,其特征在于,包括:
针对监控视频中的每一帧监控图像,利用目标滤波器对所述监控图像的第一图像特征进行滤波,得到响应输出矩阵,所述目标滤波器利用前监控图像的上一帧监控图像经过初等变换后得到的多个训练样本进行训练得到;
根据所述响应输出矩阵,确定跟踪目标在每一帧监控图像中的实际位置;
根据所述跟踪目标在每一帧监控图像中的实际位置,确定所述跟踪目标的行为信息;
基于所述行为信息,确定所述跟踪目标的异常情况。
10.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至8任一项所述的视觉跟踪方法或权利要求9所述的视频监控方法。
CN202011209085.6A 2020-11-03 2020-11-03 视觉跟踪方法、视频监控方法及终端设备 Active CN112036381B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011209085.6A CN112036381B (zh) 2020-11-03 2020-11-03 视觉跟踪方法、视频监控方法及终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011209085.6A CN112036381B (zh) 2020-11-03 2020-11-03 视觉跟踪方法、视频监控方法及终端设备

Publications (2)

Publication Number Publication Date
CN112036381A true CN112036381A (zh) 2020-12-04
CN112036381B CN112036381B (zh) 2021-03-09

Family

ID=73573681

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011209085.6A Active CN112036381B (zh) 2020-11-03 2020-11-03 视觉跟踪方法、视频监控方法及终端设备

Country Status (1)

Country Link
CN (1) CN112036381B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113129337A (zh) * 2021-04-14 2021-07-16 桂林电子科技大学 背景感知跟踪方法、计算机可读存储介质及计算机设备
CN113393493A (zh) * 2021-05-28 2021-09-14 京东数科海益信息科技有限公司 目标对象的跟踪方法及装置
CN115278055A (zh) * 2022-06-24 2022-11-01 维沃移动通信有限公司 拍摄方法、拍摄装置及电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150206004A1 (en) * 2014-01-20 2015-07-23 Ricoh Company, Ltd. Object tracking method and device
CN106097383A (zh) * 2016-05-30 2016-11-09 海信集团有限公司 一种针对遮挡问题的目标跟踪方法及设备
CN107169994A (zh) * 2017-05-15 2017-09-15 上海应用技术大学 基于多特征融合的相关滤波跟踪方法
US20180308243A1 (en) * 2017-03-28 2018-10-25 Irvine Sensors Corporation Cognitive Tracker -- Appliance For Enabling Camera-to-Camera Object Tracking in Multi-Camera Surveillance Systems
CN110084836A (zh) * 2019-04-26 2019-08-02 西安电子科技大学 基于深度卷积特征分层响应融合的目标跟踪方法
CN110223323A (zh) * 2019-06-02 2019-09-10 西安电子科技大学 基于深度特征自适应相关滤波的目标跟踪方法
CN110705334A (zh) * 2018-07-09 2020-01-17 翔升(上海)电子技术有限公司 目标追踪方法、装置、设备和介质
WO2020139835A1 (en) * 2018-12-26 2020-07-02 The Regents Of The University Of California Systems and methods for two-dimensional fluorescence wave propagation onto surfaces using deep learning
CN111382613A (zh) * 2018-12-28 2020-07-07 中国移动通信集团辽宁有限公司 图像处理方法、装置、设备和介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150206004A1 (en) * 2014-01-20 2015-07-23 Ricoh Company, Ltd. Object tracking method and device
CN106097383A (zh) * 2016-05-30 2016-11-09 海信集团有限公司 一种针对遮挡问题的目标跟踪方法及设备
US20180308243A1 (en) * 2017-03-28 2018-10-25 Irvine Sensors Corporation Cognitive Tracker -- Appliance For Enabling Camera-to-Camera Object Tracking in Multi-Camera Surveillance Systems
CN107169994A (zh) * 2017-05-15 2017-09-15 上海应用技术大学 基于多特征融合的相关滤波跟踪方法
CN110705334A (zh) * 2018-07-09 2020-01-17 翔升(上海)电子技术有限公司 目标追踪方法、装置、设备和介质
WO2020139835A1 (en) * 2018-12-26 2020-07-02 The Regents Of The University Of California Systems and methods for two-dimensional fluorescence wave propagation onto surfaces using deep learning
CN111382613A (zh) * 2018-12-28 2020-07-07 中国移动通信集团辽宁有限公司 图像处理方法、装置、设备和介质
CN110084836A (zh) * 2019-04-26 2019-08-02 西安电子科技大学 基于深度卷积特征分层响应融合的目标跟踪方法
CN110223323A (zh) * 2019-06-02 2019-09-10 西安电子科技大学 基于深度特征自适应相关滤波的目标跟踪方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113129337A (zh) * 2021-04-14 2021-07-16 桂林电子科技大学 背景感知跟踪方法、计算机可读存储介质及计算机设备
CN113393493A (zh) * 2021-05-28 2021-09-14 京东数科海益信息科技有限公司 目标对象的跟踪方法及装置
CN113393493B (zh) * 2021-05-28 2024-04-05 京东科技信息技术有限公司 目标对象的跟踪方法及装置
CN115278055A (zh) * 2022-06-24 2022-11-01 维沃移动通信有限公司 拍摄方法、拍摄装置及电子设备

Also Published As

Publication number Publication date
CN112036381B (zh) 2021-03-09

Similar Documents

Publication Publication Date Title
CN110378381B (zh) 物体检测方法、装置和计算机存储介质
CN112036381B (zh) 视觉跟踪方法、视频监控方法及终端设备
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
CN106682697B (zh) 一种基于卷积神经网络的端到端物体检测方法
JP6742554B1 (ja) 情報処理装置およびそれを備えた電子機器
CN108182695B (zh) 目标跟踪模型训练方法及装置、电子设备和存储介质
CN111104925B (zh) 图像处理方法、装置、存储介质和电子设备
KR101409810B1 (ko) 파티클 필터를 이용한 움직임 카메라에서의 실시간 객체 추적 방법
CN111860398A (zh) 遥感图像目标检测方法、系统及终端设备
CN115063454B (zh) 多目标跟踪匹配方法、装置、终端及存储介质
CN113312973B (zh) 一种手势识别关键点特征提取方法及系统
CN112528974B (zh) 测距方法、装置、电子设备及可读存储介质
Jiang et al. A self-attention network for smoke detection
CN115546705B (zh) 目标识别方法、终端设备及存储介质
CN108596032B (zh) 一种视频中打架行为检测方法、装置、设备及介质
CN111368634B (zh) 基于神经网络的人头检测方法、系统及存储介质
CN113191489A (zh) 二值神经网络模型的训练方法、图像处理方法和装置
CN115063447A (zh) 一种基于视频序列的目标动物运动追踪方法及相关设备
CN114898470A (zh) 基于改进YOLOv5的跌倒行为检测方法及系统
CN112801047A (zh) 缺陷检测方法、装置、电子设备及可读存储介质
CN114495006A (zh) 遗留物体的检测方法、装置及存储介质
CN116977674A (zh) 图像匹配方法、相关设备、存储介质及程序产品
CN115439708A (zh) 一种图像数据处理方法和装置
CN110472607A (zh) 一种船舶跟踪方法及系统
CN116805387B (zh) 基于知识蒸馏的模型训练方法、质检方法和相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant