CN106097391A - 一种基于深度神经网络的识别辅助的多目标跟踪方法 - Google Patents

一种基于深度神经网络的识别辅助的多目标跟踪方法 Download PDF

Info

Publication number
CN106097391A
CN106097391A CN201610420557.XA CN201610420557A CN106097391A CN 106097391 A CN106097391 A CN 106097391A CN 201610420557 A CN201610420557 A CN 201610420557A CN 106097391 A CN106097391 A CN 106097391A
Authority
CN
China
Prior art keywords
target
tracking
network
deep neural
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610420557.XA
Other languages
English (en)
Other versions
CN106097391B (zh
Inventor
王慧燕
杨宇涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Gongshang University
Original Assignee
Zhejiang Gongshang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Gongshang University filed Critical Zhejiang Gongshang University
Priority to CN201610420557.XA priority Critical patent/CN106097391B/zh
Publication of CN106097391A publication Critical patent/CN106097391A/zh
Application granted granted Critical
Publication of CN106097391B publication Critical patent/CN106097391B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度神经网络的识别辅助的多目标跟踪方法。多目标跟踪是指在摄像机捕获的画面中对感兴趣的多个目标不断的跟踪。现有的多行人跟踪方法在当目标被完全遮挡或者从视野中消失极易导致跟踪失败。本发明方法将多目标跟踪问题转化为寻找帧间检测到的目标之间对应关系问题,在目标消失再现后,采用基于深度学习网络实现有效的轨迹恢复,改善长距离跟踪效果。本发明具有较好的鲁棒性,非常适合应用在安防监控领域,对协助公共场所的维护治安有非常大的实际价值。

Description

一种基于深度神经网络的识别辅助的多目标跟踪方法
技术领域
本发明属于图像处理和模式识别领域,涉及一种基于深度神经网络的识别辅助的多目标跟踪方法。
背景技术
随着机器视觉理论与技术以及计算机硬件的发展,对图像内容进行识别与理解成为研究的热点,拥有广阔的应用市场。尤其在安防监控、智能交通、自动驾驶等领域,对多目标跟踪的需求日益增强。同时,多目标跟踪作为众多计算机视觉的底层技术,该技术的发展也会对计算机视觉的其他分支产生极大的影响和促进。
多目标跟踪就是在视频序列中持续不断的自动识别和定位目标,同时记录下目标的运动轨迹。多目标跟踪相对于单目标跟踪更为复杂,不仅需要处理单目标跟踪中出现的复杂的背景环境,如遮挡、光照变化、目标姿态变化等因素,还要面对目标数量动态变化以及多目标之间的相互遮挡等问题。这些难题的存在导致当前主流的多目标跟踪方法并不鲁棒。
随着近年来各个领域对多目标跟踪技术的需求日益增大,出现了很多的研究成果。自从首次将网络流的方法应用到多目标跟踪,大量的相关方法也随之出现。这类方法的基本思想是将跟踪目标看成图中的节点,构建网络流图,通过寻找最小代价流来进行跟踪。目标检测的技术日益完善后,催生了两段式的基于检测的跟踪,跟踪的方法是在检测结果之间寻找关联关系。考虑到目标运动中需要符合一系列的关联准则以及与其他运动目标的相互关系,SFM模型(social force model)被提出了,随后该模型被应用到了多目标跟踪领域。但迄今为止,并没有很好的方法能够将消失重现目标的轨迹重新恢复,而是重新将其当做新的跟踪对象,这显然不符合实际需要。
自从2012年Hinton团队将Deep Learning用于ImageNet数据集并取得了惊人的成绩后,深度学习重新得到了重视并在各个研究领域得到了广泛的应用,结合深度学习的跟踪方法也随之出现。自动编码器(Auto Encoder)全卷积网络也被用于目标跟踪,实现了端到端的目标跟踪。但一个好的CNN网络需要大量的样本学习好的特征描述,而且在现有的硬件条件下,有监督的CNN庞大的计算代价难以满足跟踪实时性的要求。
发明内容
本发明提供了一种基于深度神经网络的识别辅助的多目标跟踪方法,以解决多目标跟踪中的消失目标重现时的轨迹恢复问题,提高跟踪的准确性和鲁棒性。
为解决上述问题,本发明提供一种基于深度神经网络的识别辅助的多目标跟踪方法,包括以下步骤:
对于视频中的每一帧,检测所有存在的目标,将检测结果中的若干候选目标用集合Ct表示,将已有的若干跟踪目标用集合Os表示,对一个跟踪目标的轨迹记为Oi,下标i是唯一的跟踪标识;
将当前帧检测到的候选目标与已有的跟踪目标进行匹配,当在检测结果中距离最近且符合距离小于一个阈值时,则认定该候选目标满足强关联条件并将其加入对应跟踪目标的轨迹当中,所有跟踪目标匹配结束后,将没有匹配到任何跟踪目标的候选目标加入队列Q中,队列Q表示在匹配阶段不满足强关联条件的候选目标集合;
若队列Q为空,该帧跟踪结束,重新读取视频帧进行上述步骤;
若队列Q不为空,利用当前所有历史跟踪记录更新辅助跟踪网络,将队列Q中所有目标输入更新后的辅助跟踪网络中,得到识别结果和相应的置信度,当队列Q中识别结果的置信度高于阈值的候选目标依据其识别结果进行跟踪。
作为一种实施方式,所述将当前帧检测到的候选目标与已有的跟踪目标进行匹配步骤中,包括以下步骤:
根据空间局部性原理缩小匹配范围,筛选出符合距离要求的候选目标作为相似目标。
作为一种实施方式,所述根据空间局部性原理缩小匹配范围,具体包括以下步骤:
根据如下公式进行筛选:
U t = { c j t | E u c l i d e a n ( o i t - 1 , c j t ) < v }
其中Ut表示符合要求的候选目标的集合,表示第t帧中检测到的第j个候选目标,j∈[1,n],表示第t-1帧中目标i,其中i∈[1,z],t∈[1,m]。
作为一种实施方式,所述将当前帧检测到的候选目标与已有的跟踪目标进行匹配,具体包括以下步骤:
在当前帧检测结果中寻找跟踪目标相似度高的候选目标;
通过如下公式寻找最相似候选目标;
argmin j d i s t ( f ( o i t - 1 ) , f ( c j t ) ) , c j t &Element; C t
其中f(.)表示对目标提取特征,dist(.)表示距离度量函数。
作为一种实施方式,若目标提取特征为颜色直方图特征时,具体包括以下步骤:
根据空间局部性原理筛选符合距离要求的候选目标;
提取目标t‐1帧中已有跟踪目标和t帧中检测到的候选目标的RGB颜色直方图特征;
根据巴氏距离度量函数计算两个直方图分布特征的距离,计算公式如下:
argmin j D B ( h i s t ( o i t - 1 ) , h i s t ( u j t ) ) , u j t &Element; U t ,
其中hist(.)表示颜色直方图特征,DB表示目标提取特征为颜色直方图特征时的巴氏距离度量函数;
若巴氏距离最近且小于一个阈值,则认定该候选目标为满足强关联条件,为最相似候选目标。
作为一种实施方式,所述利用当前所有历史跟踪记录更新辅助跟踪网络,具体包括以下步骤:
将当前所有跟踪目标的历史跟踪结果作为网络的训练数据,将网络输出的特征和跟踪标识组成训练样本去训练SVM分类器,完成辅助跟踪网络的更新。
作为一种实施方式,所述将队列Q中所有目标输入网络中,得到识别结果和相应的置信度,具体包括以下步骤:
将队列Q中每一个目标输入更新后的辅助跟踪网络中,通过前馈运算结果获得目标的深度特征,再将深度特征输入线性SVM分类器得到识别标识和相应的置信度。
作为一种实施方式,所述深度特征包括网络输出特征,通过前馈运算结果获得目标的网络输出特征,具体包括以下步骤:
将一个样本经过两层卷积,得到若干个特征图;
每个样本卷积后加入最大值池化的运算,将特征图变小;
当获取所有卷积的特征图,对卷积结果进行二值化操作;
以每n个特征图采取加权和的方式合并,在对所有合并后的特征图分块提取直方图特征,最终得到网络输出特征。
作为一种实施方式,还包括将队列Q中识别结果的置信度低于阈值要求的候选目标当做新出现的目标,将新出现的目标建立跟踪目标并加入到跟踪目标Os中。
作为一种实施方式,将队列Q中所有目标输入更新后的辅助跟踪网络中,所述网络为深度神经网络结构,包括两个卷积层、两个最大值池化层和二值量化层。两个所述卷积层包括第一卷积层和第二卷积层,所述第一卷积层滤波器个数为8个,第二卷积层滤波器个数为64个。
本发明提供的技术方案的有益效果是:本发明主要针对当目标存在严重遮挡以及目标从摄像机视野中短暂消失的情况进行研究,提出了一种基于深度神经网络的识别辅助的多目标跟踪方法,将多目标的跟踪问题转化为寻找帧间检测到的目标之间寻找对应关系的过程,采用了基于深度神经网络的目标识别方法来进行辅助跟踪,可以很好地解决目标消失再现和存在严重遮挡时造成的目标丢失的问题,当目标再次出现时可以通过识别辅助跟踪的方法恢复消失重现目标的跟踪轨迹。
附图说明
图1为本发明基于深度神经网络的识别辅助的多目标跟踪方法的流程图;
图2为本发明使用的辅助跟踪网络的结构图。
具体实施方式
为了进一步详细描述本发明的过程,结合附图对本发明进行更加具体的阐述。
本发明提供一种基于深度神经网络的识别辅助的多目标跟踪方法,主要分为三个步骤,目标检测、匹配跟踪以及深度学习网络辅助跟踪,其简要步骤如下:第一,首先检测器对于视频的每一帧进行目标检测,检测结果为之后的跟踪做准备。第二,相邻两帧中的目标之间通过相似度匹配,得到初步的跟踪结果。第三,结合辅助跟踪网络恢复消失重现目标的跟踪轨迹,进一步提高跟踪效果。
在本实施例中,将目标以行人进行阐述。如图1所示,本方法开始执行之前,需要首先初始化检测器,使用的特征为分块的梯度统计直方图,对行人数据库提取梯度统计直方图特征,将该特征作为SVM分类器的输入,训练分类器以得到一个鲁棒的差分分类器。第一帧中检测到的目标不做匹配,直接当做新的跟踪目标,加入集合Os中,程序初始化完成。下面结合附图对本方法进行详细的描述:
步骤101:首先采用基于分块梯度直方图特征的检测器对视频图像中每一帧进行目标检测,并记录所有检测到的目标,ft表示视频帧,t是帧编号,N是视频的总帧数;检测时采用滑动窗口机制对整个图像遍历,对滑动窗口扫描过的每一个位置用SVM分类器判断是否为目标。为了能检测到不同尺度的目标,滑动窗口存在尺度变化。检测结束时,检测结果记为 表示第t帧中检测到的第j个候选目标,j∈[1,n],n为在第t帧中检测到的目标总数。将所有的跟踪目标用一个集合表示,记为Os={O1,O2,...,Oz},z为跟踪目标的总数,每一个跟踪目标的轨迹记录为 表示第t帧中目标i,其中i∈[1,z],t∈[1,m],下标i是唯一的跟踪标识。
基于分块梯度直方图特征的目标检测操作具体为:用行人数据库训练检测器,正样本为行人图片,负样本为背景图片。抽取训练样本的Hog特征作为分类器的输入特征,然后将准备好的数据交由SVM学习一个可以将行人和背景有效区分的超平面。
步骤102:将当前帧检测到的候选目标与已有的跟踪目标进行匹配。对每一个寻找最为相似的候选目标时,首先寻找距离最近的目标。根据空间局部性原理,认为其在第t帧中的目标不会偏离太远,通过筛选出符合距离要求的相似目标。然后用hist(.)函数提取颜色直方图特征,再由巴氏距离度量函数(记为DB)计算两个直方图分布特征的距离。选出匹配程度最高的候选目标。如果最优目标的距离同时满足距离小于阈值,认为满足强关联条件,将最优目标加入对应跟踪目标的轨迹中。当完成所有跟踪目标和候选目标之间关联之后,将没有加入到任何跟踪轨迹的候选目标加入到队列Q中。
依据空间局部性原理缩小搜索范围操作具体为:由于空间局部性原理,同一个目标在相邻帧中距离不会太大。因此,并不需要将所有候选目标与跟踪目标逐一计算距离,只需要在满足距离小于一定范围的候选目标中寻找匹配对象即可。根据如下公式进行筛选:
U t = { c j t | E u c l i d e a n ( o i t - 1 , c j t ) < v }
其中Ut表示符合要求的的集合,经过筛选,候选目标的范围大大缩小,达到加快运行速度的要求。
基于满足强关联条件的关联操作具体为:对一个目标跟踪的目的是不断的寻找目标在当前帧检测结果中相似度最高的将其当做目标Oi在t帧中的预测结果寻找最相似候选目标的公式如下:
argmin j d i s t ( f ( o i t - 1 ) , f ( c j t ) ) , c j t &Element; C t
其中f(.)表示目标提取特征,dist(.)表示距离度量函数,当一个候选目标与距离最近且距离小于一个阈值时,认为该候选目标为匹配结果。在本实施中,目标提取特征f(.)为颜色直方图特征hist(.)。
步骤103:队列Q如果为空,则跟踪结束。否则使用辅助跟踪网络辅助跟踪。首先将现有的所有历史跟踪结果更新辅助跟踪网络,如图2所示,为本发明设计的深度神经网络结构,主要包括两个卷积层、两个最大值池化层和二值量化层,第一个卷积层滤波器个数为8,第二层滤波器为64个。当一个样本通过两层卷积之后,会生成64个特征图。每个在队列Q中的候选目标经卷积层之后加入最大值池化的运算,每经历一次池化操作,特征图的大小会变小。例如,当池化操作的卷积核为2×2时,每次池化后特征图的长宽分别会变为原来二分之一。当获取所有的卷积特征图之后,对卷积结果进行二值化操作。然后每n个特征图采取加权和的方式合并,在对所有合并后的特征图分块提取直方图特征,最终得到网络输出特征。对于分类层,采用有监督的学习方法学习分类器。将网络的卷积特征和标签输入到SVM中,训练得到最终的分类器。当网络更新完成后,再由网络给出Q中每一个候选目标的识别结果和置信度α。
步骤104在步骤103的描述下,将Q中识别结果的置信度α低于阈值要求的候选目标当做新出现的目标,同时将这些新出现的目标建立跟踪对象并加入到Os中。
步骤105在步骤103的描述下,将Q中识别结果的置信度α高于阈值要求的候选目标依据其识别结果进行跟踪,当置信度α高于设定的阈值时,则判断该目标之前曾出现过,再通过识别结果将其与跟踪目标对应起来,从而实现消失在线目标的轨迹恢复。
综上所述,这样就避免了传统方法在目标短暂消失再次出现时将其误判为新的跟踪目标或者丢失目标的情况。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,包括以下步骤:
对于视频中的每一帧,检测所有存在的目标,将检测结果中的若干候选目标用集合Ct表示,将已有的若干跟踪目标用集合Os表示,对一个跟踪目标的轨迹记为Oi,下标i是唯一的跟踪标识;
将当前帧检测到的候选目标与已有的跟踪目标进行匹配,当在检测结果中距离最近且符合距离小于一个阈值时,则认定该候选目标满足强关联条件并将其加入对应跟踪目标的轨迹当中,所有跟踪目标匹配结束后,将没有匹配到任何跟踪目标的候选目标加入队列Q中,队列Q表示在匹配阶段不满足强关联条件的候选目标集合;
若队列Q为空,该帧跟踪结束,重新读取视频帧进行上述步骤;
若队列Q不为空,利用当前所有历史跟踪记录更新辅助跟踪网络,将队列Q中所有目标输入更新后的辅助跟踪网络中,得到识别结果和相应的置信度,当队列Q中识别结果的置信度高于阈值的候选目标依据其识别结果进行跟踪。
2.根据权利要求1所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,所述将当前帧检测到的候选目标与已有的跟踪目标进行匹配步骤中,包括以下步骤:
根据空间局部性原理缩小匹配范围,筛选出符合距离要求的候选目标作为相似目标。
3.根据权利要求2所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,所述根据空间局部性原理缩小匹配范围,具体包括以下步骤:
根据如下公式进行筛选:
U t = { c j t | E u c l i d e a n ( o i t - 1 , c j t ) < v }
其中Ut表示符合要求的候选目标的集合,表示第t帧中检测到的第j个候选目标,j∈[1,n],表示第t-1帧中目标i,其中i∈[1,z],t∈[1,m]。
4.根据权利要求3所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,所述将当前帧检测到的候选目标与已有的跟踪目标进行匹配,具体包括以下步骤:
在当前帧检测结果中寻找跟踪目标相似度高的候选目标;
通过如下公式寻找最相似候选目标;
argmin j d i s t ( f ( o i t - 1 ) , f ( c j t ) ) , c j t &Element; C t
其中f(.)表示对目标提取特征,dist(.)表示距离度量函数。
5.根据权利要求4所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,若目标提取特征为颜色直方图特征时,具体包括以下步骤:
根据空间局部性原理筛选符合距离要求的候选目标;
提取目标t‐1帧中已有跟踪目标和t帧中检测到的候选目标的RGB颜色直方图特征;
根据巴氏距离度量函数计算两个直方图分布特征的距离,计算公式如下:
argmin j D B ( h i s t ( o i t - 1 ) , h i s t ( u j t ) ) , u j t &Element; U t ,
其中hist(.)表示颜色直方图特征,DB表示目标提取特征为颜色直方图特征时的巴氏距离度量函数;
若巴氏距离最近且小于一个阈值,则认定该候选目标为满足强关联条件,为最相似候选目标。
6.根据权利要求1所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,所述利用当前所有历史跟踪记录更新辅助跟踪网络,具体包括以下步骤:
将当前所有跟踪目标的历史跟踪结果作为网络的训练数据,将网络输出的特征和跟踪标识组成训练样本去训练SVM分类器,完成辅助跟踪网络的更新。
7.根据权利要求6所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,所述将队列Q中所有目标输入网络中,得到识别结果和相应的置信度,具体包括以下步骤:
将队列Q中每一个目标输入更新后的辅助跟踪网络中,通过前馈运算结果获得目标的深度特征,再将深度特征输入线性SVM分类器得到识别标识和相应的置信度。
8.根据权利要求7所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,所述深度特征包括网络输出特征,通过前馈运算结果获得目标的网络输出特征,具体包括以下步骤:
将一个样本经过两层卷积,得到若干个特征图;
每个样本卷积后加入最大值池化的运算,将特征图变小;
当获取所有卷积的特征图,对卷积结果进行二值化操作;
以每n个特征图采取加权和的方式合并,在对所有合并后的特征图分块提取直方图特征,最终得到网络输出特征。
9.根据权利要求1所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,还包括将队列Q中识别结果的置信度低于阈值要求的候选目标当做新出现的目标,将新出现的目标建立跟踪目标并加入到跟踪目标Os中。
10.根据权利要求6所述的基于深度神经网络的识别辅助的多目标跟踪方法,其特征在于,将队列Q中所有目标输入更新后的辅助跟踪网络中,所述网络为深度神经网络结构,包括两个卷积层、两个最大值池化层和二值量化层。两个所述卷积层包括第一卷积层和第二卷积层,所述第一卷积层滤波器个数为8个,第二卷积层滤波器个数为64个。
CN201610420557.XA 2016-06-13 2016-06-13 一种基于深度神经网络的识别辅助的多目标跟踪方法 Active CN106097391B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610420557.XA CN106097391B (zh) 2016-06-13 2016-06-13 一种基于深度神经网络的识别辅助的多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610420557.XA CN106097391B (zh) 2016-06-13 2016-06-13 一种基于深度神经网络的识别辅助的多目标跟踪方法

Publications (2)

Publication Number Publication Date
CN106097391A true CN106097391A (zh) 2016-11-09
CN106097391B CN106097391B (zh) 2018-11-16

Family

ID=57846087

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610420557.XA Active CN106097391B (zh) 2016-06-13 2016-06-13 一种基于深度神经网络的识别辅助的多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN106097391B (zh)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106504190A (zh) * 2016-12-29 2017-03-15 浙江工商大学 一种基于3d卷积神经网络的立体视频生成方法
CN106682664A (zh) * 2016-12-07 2017-05-17 华南理工大学 基于全卷积递归神经网络的水表圆盘区域检测方法
CN106709521A (zh) * 2016-12-26 2017-05-24 深圳极视角科技有限公司 基于卷积神经网络和动态跟踪的火焰预警方法和系统
CN106952293A (zh) * 2016-12-26 2017-07-14 北京影谱科技股份有限公司 一种基于非参数在线聚类的目标跟踪方法
CN107316317A (zh) * 2017-05-23 2017-11-03 深圳市深网视界科技有限公司 一种行人多目标跟踪方法和装置
CN107491761A (zh) * 2017-08-23 2017-12-19 哈尔滨工业大学(威海) 一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法
CN108198200A (zh) * 2018-01-26 2018-06-22 福州大学 跨摄像头场景下指定行人在线跟踪方法
CN108206941A (zh) * 2017-09-27 2018-06-26 深圳市商汤科技有限公司 目标跟踪方法、系统、终端设备及存储介质
CN108346145A (zh) * 2018-01-31 2018-07-31 浙江大学 一种病理切片中非常规细胞的识别方法
CN108447076A (zh) * 2018-03-16 2018-08-24 清华大学 基于深度增强学习的多目标跟踪方法
CN108446634A (zh) * 2018-03-20 2018-08-24 北京天睿空间科技股份有限公司 基于视频分析和定位信息结合的航空器持续跟踪方法
CN108470332A (zh) * 2018-01-24 2018-08-31 博云视觉(北京)科技有限公司 一种多目标跟踪方法及装置
CN108491816A (zh) * 2018-03-30 2018-09-04 百度在线网络技术(北京)有限公司 在视频中进行目标跟踪的方法和装置
CN108509859A (zh) * 2018-03-09 2018-09-07 南京邮电大学 一种基于深度神经网络的无重叠区域行人跟踪方法
CN108875588A (zh) * 2018-05-25 2018-11-23 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN109033922A (zh) * 2017-06-08 2018-12-18 北京君正集成电路股份有限公司 一种视频中设置目标标识的方法及装置
CN109118519A (zh) * 2018-07-26 2019-01-01 北京纵目安驰智能科技有限公司 基于实例分割的目标Re-ID方法、系统、终端和存储介质
WO2019033541A1 (en) * 2017-08-14 2019-02-21 Huawei Technologies Co., Ltd. PRODUCTION OF DATA LABELED FOR DEEP OBJECT TRACKING
CN109409499A (zh) * 2018-09-20 2019-03-01 北京航空航天大学 一种基于深度学习和卡尔曼滤波修正的轨迹恢复方法
CN109461144A (zh) * 2018-10-16 2019-03-12 杭州依图医疗技术有限公司 一种乳腺影像识别的方法及装置
CN109584213A (zh) * 2018-11-07 2019-04-05 复旦大学 一种多目标编号选定跟踪方法
CN110298214A (zh) * 2018-03-23 2019-10-01 苏州启铭臻楠电子科技有限公司 一种基于组合深度神经网络的舞台多目标追踪和分类方法
WO2019184605A1 (zh) * 2018-03-30 2019-10-03 华为技术有限公司 一种多目标跟踪方法以及终端设备
CN110785777A (zh) * 2017-01-23 2020-02-11 牛津大学创新有限公司 确定可移动的设备的位置
WO2020082258A1 (zh) * 2018-10-24 2020-04-30 深圳鲲云信息科技有限公司 一种多目标实时跟踪方法、装置及电子设备
WO2020233414A1 (zh) * 2019-05-20 2020-11-26 阿里巴巴集团控股有限公司 物体识别方法、装置及车辆
WO2021012484A1 (zh) * 2019-07-19 2021-01-28 平安科技(深圳)有限公司 基于深度学习的目标跟踪方法、装置及计算机可读存储介质
CN113361388A (zh) * 2021-06-03 2021-09-07 北京百度网讯科技有限公司 图像数据修正方法、装置、电子设备及自动驾驶车辆

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1738426A (zh) * 2005-09-09 2006-02-22 南京大学 一种视频运动目标分割与跟踪方法
US8345984B2 (en) * 2010-01-28 2013-01-01 Nec Laboratories America, Inc. 3D convolutional neural networks for automatic human action recognition
CN104537647A (zh) * 2014-12-12 2015-04-22 中安消技术有限公司 一种目标检测方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1738426A (zh) * 2005-09-09 2006-02-22 南京大学 一种视频运动目标分割与跟踪方法
US8345984B2 (en) * 2010-01-28 2013-01-01 Nec Laboratories America, Inc. 3D convolutional neural networks for automatic human action recognition
CN104537647A (zh) * 2014-12-12 2015-04-22 中安消技术有限公司 一种目标检测方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIALUE FAN ET AL.: "《Human Tracking Using Convolutional Neural Networks》", 《IEEE TRANSACTIONS ON NEURAL NETWORKS》 *
胡鹏等: "《西南科技大学学报》", 《基于区域卷积神经网络的多目标跟踪算法》 *

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682664A (zh) * 2016-12-07 2017-05-17 华南理工大学 基于全卷积递归神经网络的水表圆盘区域检测方法
CN106709521A (zh) * 2016-12-26 2017-05-24 深圳极视角科技有限公司 基于卷积神经网络和动态跟踪的火焰预警方法和系统
CN106952293A (zh) * 2016-12-26 2017-07-14 北京影谱科技股份有限公司 一种基于非参数在线聚类的目标跟踪方法
CN106952293B (zh) * 2016-12-26 2020-02-28 北京影谱科技股份有限公司 一种基于非参数在线聚类的目标跟踪方法
CN106504190A (zh) * 2016-12-29 2017-03-15 浙江工商大学 一种基于3d卷积神经网络的立体视频生成方法
CN106504190B (zh) * 2016-12-29 2019-09-13 浙江工商大学 一种基于3d卷积神经网络的立体视频生成方法
CN110785777A (zh) * 2017-01-23 2020-02-11 牛津大学创新有限公司 确定可移动的设备的位置
CN110785777B (zh) * 2017-01-23 2024-04-02 牛津大学创新有限公司 确定可移动的设备的位置
CN107316317A (zh) * 2017-05-23 2017-11-03 深圳市深网视界科技有限公司 一种行人多目标跟踪方法和装置
CN109033922A (zh) * 2017-06-08 2018-12-18 北京君正集成电路股份有限公司 一种视频中设置目标标识的方法及装置
WO2019033541A1 (en) * 2017-08-14 2019-02-21 Huawei Technologies Co., Ltd. PRODUCTION OF DATA LABELED FOR DEEP OBJECT TRACKING
US10592786B2 (en) 2017-08-14 2020-03-17 Huawei Technologies Co., Ltd. Generating labeled data for deep object tracking
CN107491761B (zh) * 2017-08-23 2020-04-03 哈尔滨工业大学(威海) 一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法
CN107491761A (zh) * 2017-08-23 2017-12-19 哈尔滨工业大学(威海) 一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法
CN108206941A (zh) * 2017-09-27 2018-06-26 深圳市商汤科技有限公司 目标跟踪方法、系统、终端设备及存储介质
CN108470332A (zh) * 2018-01-24 2018-08-31 博云视觉(北京)科技有限公司 一种多目标跟踪方法及装置
CN108198200A (zh) * 2018-01-26 2018-06-22 福州大学 跨摄像头场景下指定行人在线跟踪方法
CN108346145A (zh) * 2018-01-31 2018-07-31 浙江大学 一种病理切片中非常规细胞的识别方法
CN108346145B (zh) * 2018-01-31 2020-08-04 浙江大学 一种病理切片中非常规细胞的识别方法
CN108509859A (zh) * 2018-03-09 2018-09-07 南京邮电大学 一种基于深度神经网络的无重叠区域行人跟踪方法
CN108447076A (zh) * 2018-03-16 2018-08-24 清华大学 基于深度增强学习的多目标跟踪方法
CN108447076B (zh) * 2018-03-16 2021-04-06 清华大学 基于深度增强学习的多目标跟踪方法
CN108446634A (zh) * 2018-03-20 2018-08-24 北京天睿空间科技股份有限公司 基于视频分析和定位信息结合的航空器持续跟踪方法
CN110298214A (zh) * 2018-03-23 2019-10-01 苏州启铭臻楠电子科技有限公司 一种基于组合深度神经网络的舞台多目标追踪和分类方法
CN110322472A (zh) * 2018-03-30 2019-10-11 华为技术有限公司 一种多目标跟踪方法以及终端设备
WO2019184605A1 (zh) * 2018-03-30 2019-10-03 华为技术有限公司 一种多目标跟踪方法以及终端设备
CN108491816A (zh) * 2018-03-30 2018-09-04 百度在线网络技术(北京)有限公司 在视频中进行目标跟踪的方法和装置
CN108875588A (zh) * 2018-05-25 2018-11-23 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN108875588B (zh) * 2018-05-25 2022-04-15 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN109118519A (zh) * 2018-07-26 2019-01-01 北京纵目安驰智能科技有限公司 基于实例分割的目标Re-ID方法、系统、终端和存储介质
CN109409499B (zh) * 2018-09-20 2022-03-15 北京航空航天大学 一种基于深度学习和卡尔曼滤波修正的轨迹恢复方法
CN109409499A (zh) * 2018-09-20 2019-03-01 北京航空航天大学 一种基于深度学习和卡尔曼滤波修正的轨迹恢复方法
CN109461144A (zh) * 2018-10-16 2019-03-12 杭州依图医疗技术有限公司 一种乳腺影像识别的方法及装置
CN109461144B (zh) * 2018-10-16 2021-02-23 杭州依图医疗技术有限公司 一种乳腺影像识别的方法及装置
WO2020082258A1 (zh) * 2018-10-24 2020-04-30 深圳鲲云信息科技有限公司 一种多目标实时跟踪方法、装置及电子设备
CN109584213B (zh) * 2018-11-07 2023-05-30 复旦大学 一种多目标编号选定跟踪方法
CN109584213A (zh) * 2018-11-07 2019-04-05 复旦大学 一种多目标编号选定跟踪方法
WO2020233414A1 (zh) * 2019-05-20 2020-11-26 阿里巴巴集团控股有限公司 物体识别方法、装置及车辆
WO2021012484A1 (zh) * 2019-07-19 2021-01-28 平安科技(深圳)有限公司 基于深度学习的目标跟踪方法、装置及计算机可读存储介质
CN113361388A (zh) * 2021-06-03 2021-09-07 北京百度网讯科技有限公司 图像数据修正方法、装置、电子设备及自动驾驶车辆
CN113361388B (zh) * 2021-06-03 2023-11-24 北京百度网讯科技有限公司 图像数据修正方法、装置、电子设备及自动驾驶车辆

Also Published As

Publication number Publication date
CN106097391B (zh) 2018-11-16

Similar Documents

Publication Publication Date Title
CN106097391A (zh) 一种基于深度神经网络的识别辅助的多目标跟踪方法
CN108875588B (zh) 基于深度学习的跨摄像头行人检测跟踪方法
CN109360226B (zh) 一种基于时间序列多特征融合的多目标跟踪方法
CN107943837B (zh) 一种前景目标关键帧化的视频摘要生成方法
CN109919974B (zh) 基于r-fcn框架多候选关联的在线多目标跟踪方法
EP3633615A1 (en) Deep learning network and average drift-based automatic vessel tracking method and system
CN107016357B (zh) 一种基于时间域卷积神经网络的视频行人检测方法
CN104134222B (zh) 基于多特征融合的车流监控图像检测和跟踪系统及方法
Kumar et al. Review of lane detection and tracking algorithms in advanced driver assistance system
WO2017000466A1 (zh) 一种基于光流法的运动目标跟踪方法及系统
CN109191497A (zh) 一种基于多种信息融合的实时在线多目标跟踪方法
CN103425967A (zh) 一种基于行人检测和跟踪的人流监控方法
CN111311666A (zh) 一种融合边缘特征和深度学习的单目视觉里程计方法
Luo et al. Real-time people counting for indoor scenes
CN111563452A (zh) 一种基于实例分割的多人体姿态检测及状态判别方法
Tsintotas et al. DOSeqSLAM: Dynamic on-line sequence based loop closure detection algorithm for SLAM
CN110555868A (zh) 一种复杂地面背景下运动小目标检测方法
CN104778699B (zh) 一种自适应对象特征的跟踪方法
CN105512618A (zh) 视频跟踪方法
CN114283355A (zh) 一种基于小样本学习的多目标濒危动物跟踪方法
CN111881749A (zh) 基于rgb-d多模态数据的双向人流量统计方法
CN102663777A (zh) 基于多视点视频的目标跟踪方法及系统
CN112967320B (zh) 一种基于桥梁防撞的船舶目标检测跟踪方法
Bhola et al. Real-time pedestrian tracking based on deep features
CN113129336A (zh) 一种端到端多车辆跟踪方法、系统及计算机可读介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant