CN108875588B - 基于深度学习的跨摄像头行人检测跟踪方法 - Google Patents
基于深度学习的跨摄像头行人检测跟踪方法 Download PDFInfo
- Publication number
- CN108875588B CN108875588B CN201810512107.2A CN201810512107A CN108875588B CN 108875588 B CN108875588 B CN 108875588B CN 201810512107 A CN201810512107 A CN 201810512107A CN 108875588 B CN108875588 B CN 108875588B
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- pedestrian
- detection
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的跨摄像头行人检测跟踪方法,包括通过训练行人检测网络,对输入的监控视频序列进行行人检测;以行人检测得到的目标框初始化跟踪目标,提取行人检测网络中候选框所对应区域的浅层特征和深层特征,实现跟踪;有目标消失时行人重识别,包括得到目标消失信息之后,利用行人重识别算法,从行人检测网络得到的候选图像中找到与消失目标匹配度最高的图像,继续跟踪;跟踪结束时输出行人目标在多个摄像头下的运动轨迹。本发明提取的特征能克服光照变化和视角变化的影响,而且跟踪和行人重识别部分均从行人检测网络中提取特征,将行人检测、多目标跟踪和行人重识别有机地融合起来,实现了大范围场景下精确的跨摄像头行人检测和跟踪。
Description
技术领域
本发明属于计算机视觉、视频分析技术领域,具体地涉及一种基于深度学习的跨摄像头行人检测跟踪方法。
背景技术
随着人们对公共安全问题的重视以及监控摄像头数量和覆盖程度的快速增加,智能化的多摄像头监控发挥着越来越重要的作用。行人作为监控的主体,不仅具有一般目标的通性,还具有类内多样性,这正是行人检测与跟踪的难点。跨摄像头行人检测与跟踪是指检测并跟踪多个摄像头下的行人目标,当有目标离开当前摄像头的视野时能迅速在邻近摄像头区域重新找回该目标,进行持续的全方位跟踪,最终得到有效的行人轨迹和运动信息。多摄像头协同跟踪可以弥补单摄像头系统视野范围的局限性,能够实现目标在更大场景下的长时间跟踪,可以广泛应用于智能安防、机器人交互、公安刑侦等领域。但跨摄像头行人检测与跟踪也远比单摄像头跟踪难度大,具体表现在以下方面:1)实际监控场景中背景复杂,行人目标高度密集、互相遮挡等导致目标检测存在漏检和误检问题;2)跟踪过程中行人之间的频繁遮挡、随时都会出现新目标或者有旧目标离开当前摄像头的视野,给多目标跟踪增加难度;3)跨摄像头的光照变化、视角变化和行人的姿态变化导致同一个行人在不同摄像头下外貌特征发生变化,难以精确地在其他摄像头重新找回消失的目标。
传统的行人检测与跟踪系统中,检测部分主要是用人工提取的形状特征或纹理特征,如HOG、LBP、Haar特征等,再加上SVM或Adaboost分类器进行行人检测。跟踪部分根据如何初始化目标可以分为两类:一类是基于检测的跟踪(Detection-Based Tracking,DBT),给定一个视频序列,在每帧中进行行人检测,然后进行顺序或批量跟踪;另一类是无需检测的跟踪(Detection-Free tracking,DFT),这种方法需要在第一帧手动初始化一定数量的目标,然后在后续帧定位这些物体。相对来说,基于检测的跟踪方法应用更为广泛,因为它可以自动发现新目标、自动终止消失的目标,本发明的跟踪系统属于第一种方法。传统目标重识别算法主要集中在提取行人的外貌特征、形状特征和局部特征等浅层特征,然后在图像库中找出匹配度最高的行人目标。但是人工提取的检测特征、重识别特征难以克服目标遮挡、光照变化和视角变化带来的消极影响,从而限制了精度的提升,而精准的行人检测和行人重识别是实现跨摄像头行人跟踪的前提条件,因此寻找高鲁棒性的特征并且构建一个统一的行人检测与跟踪系统是关键。
现在已有的一些关于行人检测与跟踪的专利(包括发明授权专利和发明公布专利)如下:
1)申请号为:CN201410266099.X的中国发明专利《视频行人检测与跟踪方法》,此方法根据人头为人体的重要组成部分且具有刚体不变形,通过对不同人头目标的样本学习与训练对视频进行行人检测,确定人头目标,并基于人头色彩特征的差异性,采用粒子滤波对人头进行跟踪。此方法简便灵活,但在实际监控场景中行人可能十分密集或者存在遮挡,人头区域较小且差异性不大,仅仅对人头进行检测和跟踪会导致漏检率增加,影响行人检测与跟踪的精度。
2)申请号为:CN201611027589.X的中国发明专利《一种基于混合特征的带缓存机制的实时行人检测与跟踪方法》,此方法的思想是在监控视频帧通过滑动窗口的方式,提取每一滑动窗口内图像的混合特征(包括图像的颜色特征、边缘特征、纹理特征等),并将其输入分类器进行检测,采用前后双向跟踪实现实时跟踪。所提供的方法虽然有很好的硬件可实现性,但是人工提取的特征难以克服光照变化以及遮挡问题,限制了精度的提升。
3)申请号为:CN201710709817.X的中国发明专利《基于深度学习的多目标行人检测与跟踪方法》,此方法的思想是利用行人检测卷积神经网络进行多目标行人检测和关键点检测,再对检测到的行人进行上半身姿态特征和颜色直方图特征提取,得到该行人的总特征,与上一个检测到的行人匹配,关联跟踪轨迹。此方法在行人跟踪阶段需要进一步计算姿态特征以及颜色直方图特征等,计算量需要考虑,且这些特征在光照变化、视角变化的时候不具有鲁棒性,会影响系统的稳定性。此方法也没有考虑多摄像头系统下的行人检测与跟踪的情况。
4)申请号为:CN201611122720.0的中国发明专利《面向轨道交通全景监控的跨摄像头可疑行人目标跟踪系统》,此方法的思想是先用混合高斯背景建模法检测出正在运动的可疑行人,再用Haar_like特征的特征值作为运动目标跟踪过程中的特征描述算子,然后用朴素贝叶斯对特征进行处理。对于多摄像头之间的目标匹配模块,采用的是Surf特征点匹配和色彩直方图匹配相融合的方法,选用最佳匹配目标。所提供的方法实现了对可疑行人的跨摄像头跟踪,但是用的传统匹配方法限制了多摄像头间行人重识别的匹配精度。
因此,探寻一种高精度、高鲁棒性、实时的跨摄像头行人检测与跟踪方法已经成为计算机视觉领域亟待解决的问题。
发明内容
本发明的目的在于克服目标遮挡以及跨摄像头带来的光照变化、视角变化、尺度变化等问题,提出一种基于深度学习的跨摄像头行人检测与跟踪方法。能够在目标离开当前摄像头视野时在邻近摄像头重新找回该目标,实现大面积场景下多行人目标的持续跟踪,并且能获取行人的运动轨迹及运动信息,进行后续分析。
为实现上述目的,本发明的技术方案包括一种基于深度学习的跨摄像头行人检测跟踪方法,包括以下步骤:
步骤S1,通过训练行人检测网络,对输入的监控视频序列进行行人检测;
步骤S2,以行人检测得到的目标框初始化跟踪目标,实现跟踪,包括提取行人检测网络中候选框所对应区域的浅层特征和深层特征,将浅层特征和深层特征结合起来作为物体的外观特征模型;
步骤S3,持续进行新目标行人检测,并判断是否有目标消失,如果有则进入步骤S4进行行人重识别;
步骤S4,行人重识别,包括得到目标消失信息之后,从行人检测网络得到的候选图像中找到与消失目标匹配度最高的图像,继续跟踪,跟踪结束时输出行人目标在多个摄像头下的运动轨迹。
而且,所述步骤S1包括以下子步骤,
步骤S11,构建行人检测网络的训练集;
步骤S12,训练行人检测网络;
步骤S13,对于待测试的视频序列,首先将每一帧分离出来,把图片送入行人检测网络中进行行人检测,得到所有行人目标的置信度score和边框信息,当置信度score大于设定阈值时,认为是行人目标,保留目标框;
步骤S14,基于步骤S13初步检测所得的准目标,利用非极大值抑制算法去除冗余框,得到最终的检测结果。
而且,所述步骤S2包括以下子步骤,
步骤S21,根据行人检测得到的行人目标候选框,提取行人检测网络中候选框所对应区域的浅层特征和深层特征,将浅层特征和深层特征结合起来作为物体的外观特征模型;
步骤S22,使用相关滤波器计算跟踪目标在各个位置的置信度得分,得分最高的区域为物体的预测位置区域,从而得到各个目标的预测位置集合;
步骤S23,更新各个目标在当前帧的位置,再通过物体的外观特征模型进行比较,得出各个目标的外观置信度分数,根据置信度分数降低的程度判断当前跟踪的目标是否被遮挡,不断更新各个目标的跟踪状态,从而实现目标的自跟踪。
而且,所述步骤S4包括以下子步骤,
步骤S41,将目标跟踪所得最后一帧消失目标的图像,以及行人检测所得的多张候选图像作为输入,对于每一张图像首先通过行人检测网络的低层得到浅层特征图,再利用显著度检测算法提取目标的显著度剔除背景中的冗余信息,然后送入深层卷积层,输出深层特征图;融合浅层特征图和深层特征图,对融合后特征图进行全局池化得到全局特征向量,进行水平池化得到局部特征向量;
步骤S42,根据步骤S41求出的全局特征向量,计算消失目标与候选目标全局特征向量之间的L2距离,然后通过目标对齐的方法计算出局部特征向量间的距离;
步骤S43,计算消失目标图像与候选对象图像的最终距离,最终距离等于全局特征向量距离加上局部特征向量距离,根据最终距离的大小得到候选对象图像与消失目标图像的初始相似度排序;
步骤S44,通过重排序算法得到最终的相似性排序结果,选择相似性最高的图像继续跟踪。
与现有跨摄像头行人检测与跟踪技术相比,本发明具有以下优点和有益效果:
(1)本发明可以自动检测监控视频中的行人位置并持续跟踪,利用卷积神经网络在行人数据集上学习到的特征克服行人遮挡、光照变化、视角变化等干扰,提高了跟踪精度;
(2)本发明中目标跟踪与行人重识别模块共用检测网络中特征,通过浅层特征与深层特征结合的方式将行人检测、目标跟踪、行人重识别有机地融合起来,相比于三部分单独的网络结构,本发明的方法可以提高行人检测与跟踪的速度,满足实时监控的需求;
(3)本发明针对跨摄像头情况下出现的目标消失问题,采用行人重识别算法在其他摄像头下找回消失的目标,实现了大面积、长时间的跨摄像头行人跟踪。
附图说明
图1为本发明实施例的总体技术框图。
图2为本发明实施例的跨摄像头下重新找回消失目标的示意图。
图3为本发明实施例的跟踪目标状态图。
图4为本发明实施例的重排序算法的示意性流程图。
具体实施方式
为了更加清楚地阐述本发明的目的、技术方案和有益效果,以下结合附图和具体实施例进行详细描述。应理解本发明的具体实施方式不限于这里的示例描述。
近年来,深度学习在许多计算机视觉任务,如图像识别、目标检测、目标跟踪等任务中都取得了十分不错的表现。卷积神经网络的浅层卷积层包含适用于目标定位的高分辨率特征,深层卷积层包含易于区分的视觉特征。本发明的创新点在于利用浅层特征与深层特征结合的方式提取行人在不同摄像头下不变的本质特征,克服光照变化和视角变化的影响,并且跟踪和行人重识别部分用到的特征也从检测网络中间层提取,将行人检测、关联跟踪和行人重识别有机地融合起来,并通过各模块间的信息交互,有效地降低了跟踪过程中跨摄像头的噪声干扰,提高了跨摄像头行人检测和跟踪的准确性和实时性。
图1是本发明技术方案的总体框图,具体实施时,本发明方法也可采用模块化方式实现,提供基于深度学习的跨摄像头行人检测与跟踪系统,除去输入和输出部分,包含三个模块:行人检测模块、多目标跟踪模块和行人重识别模块。
输入为多个摄像头下的视频;
行人检测模块的主要功能是利用深度卷积神经网络,检测监控区域所有摄像头拍摄的视频序列中的行人目标,得到每个目标的置信度和边框坐标,实施例中利用改进的Faster RCNN网络进行行人检测,根据输入的不同摄像头下的视频序列,计算出行人目标在图像中的位置(即边框坐标信息)以及置信度得分;
多目标跟踪模块主要负责将检测结果作为跟踪的初始化目标,提取检测网络的中间层特征对检测出来的行人目标进行特征建模,实现构建行人外观特征模型,利用相关滤波算法(滤波器)预测计算目标的运动轨迹,实现多目标跟踪;
行人重识别模块主要解决跨摄像头情况下的目标消失问题,当跟踪过程中目标离开当前摄像头视野时,根据跟踪模块传来的消失目标信息,从行人检测模块检测出来的候选目标图像库中,通过求取全局特征和局部特征,找到相似度最高的匹配目标,返回给多目标跟踪模块继续跟踪。
整个系统可在主动结束跟踪或者所有行人目标离开监控区域摄像头的视野时,最后输出不同行人在多个摄像头下的运动轨迹以及运动信息。
本发明实施例基于深度学习的跨摄像头行人检测与跟踪方法,参见图2,图中的S表示某监控区域中每一个摄像头的标号,S-1和S+1表示与摄像头S邻近的摄像头标号,具体包括以下步骤:
步骤S1,对输入的监控视频序列进行行人检测,具体实施时可预先搭建好监控区域的摄像头网络,对拍摄的视频序列中所有的行人目标进行检测。本步骤可采用检测模块实现。
具体包括以下步骤:
步骤S11,构建行人检测的训练集,具体实施时可在准备阶段,将目前公共的行人检测专用数据集Caltech数据集、INRIA Person数据集、ETH数据集等制作成PASCALVOC2007数据集的格式,作为行人检测网络的训练集,具体包括数据集的图片以及标注文件(xml格式),标注文件中存有每个目标的边框信息(x*,y*,w*,h*)和类别,其中(x*,y*)表示边框左上角的坐标,w*和h*分别表示边框的宽和高。
步骤S12,行人检测网络训练阶段,采用卷积神经网络VGG16作为检测网络的基网络,VGG16的具体网络结构如表1所示,由13个卷积层和3个全连接层组成。具体实施时,也可采用ZFNet、ResNet等其他网络结构。
表1
本发明实施例用在ImageNet上预先训练的VGG16模型进行参数的初始化,使用近似联合训练(端到端)的方式训练改进的Faster RCNN网络,具体改进如下:
①输入图像尺寸统一将短边缩放到800,用来提高对小物体的检测率;
②Faster RCNN网络中的区域生成网络(Region Proposal Networks,RPN)中的滑动窗采用长宽比1:0.41(这是经过统计之后的行人目标的平均长宽比),这样可以在保证精度的前提下提高检测速度;
③由于监控视频中拍摄距离远近的关系,行人的大小差异十分巨大,将滑动窗的尺寸增设为9种,分别为{32×32,64×64,96×96,128×128,160×160,192×192,224×224,256×256,288×288}。采用长宽比1:0.41后,例如32×32滑动窗的实际大小为32×13,以此类推。
本发明检测网络的损失函数由两部分组成,包括分类损失和边框回归损失,定义如式(1):
式中下标i表示滑动窗的标号,取值范围为1,2,…Ncls,Ncls表示一次批量训练使用的滑动窗数量,Nreg表示滑动窗坐标位置的数量;λ是调控分类损失和边框回归损失的因子(具体实施时在本发明实施例中设λ=10);pi表示该窗口预测为行人的概率,表示真实概率(窗口为正样本负样本)。
已知训练样本中每个目标的真实边框坐标信息为(x*,y*,w*,h*);RPN网络中滑动窗的边框信息为(xa,ya,wa,ha),其中(xa,ya)表示滑动窗的左上角坐标,wa,ha分别表示滑动窗的宽和高;RPN网络预测的边框信息为(x,y,w,h),其中(x,y)表示预测边框左上角的坐标,w和h分别表示预测边框的宽和高。ti表示预测边框与滑动窗坐标关系的4维参数化向量(tx,ty,tw,th),表示真实边框与滑动窗坐标关系的4维参数化向量具体计算公式如下:
公式(1)中分类损失Lcls采用交叉熵损失,边框回归损失Lreg采用SmothL1损失,具体定义如式(3)-(5)所示:
式(5)中表示变量之间的差值。通过最小化损失函数L({pi},{ti})来进行网络的训练和调节,行人检测网络采用随机梯度下降法(Stochastic GradientDescent,SGD)进行反向传播,迭代80000次,学习率在前30000次迭代过程中设置为0.001,后面每20000次下降为原来的0.1。
步骤S13,对于待测试的视频序列,首先将每一帧分离出来,利用S12训练所得改进的Faster RCNN网络对多个摄像头下的视频序列进行行人检测,得到所有行人目标的置信度score和预测边框信息(x,y,w,h)。每个预测边框的置信度由softmax分类器计算得到,当置信度score大于设定阈值(具体实施时,可根据精度需要预设相应阈值,一般设阈值T为0.7以上,本发明实施例中设阈值T=0.8)时,认为是行人目标,保留目标框。
步骤S14,由步骤S13已经初步检测到了多个准目标,多个准目标往往只对应一个行人目标,利用非极大值抑制(Non-maximum Suppression,NMS)算法对这些候选框去除冗余框,得到最终的检测结果,实现方式如下:
首先对目标框的得分score排序,得分最高的目标框记为BoxesMaxScore,遍历排序后的目标框集合,分别与BoxesMaxScore进行比较,计算重叠面积与两者间最小面积的比例,保留比例小于设定IoU阈值(具体实施时,可根据精度需要预设相应阈值,本发明实施例设置为0.5)的包围框,若超过则抑制掉该目标框,经过遍历迭代得到最终目标框Boxesbest。
步骤S2,以行人检测得到的目标框初始化跟踪目标,实现跟踪,进一步包括以下步骤:
步骤S21,提取目标的浅层特征和深层特征,二者结合起来构建物体的外观特征模型。根据步骤S1提供的行人目标候选框,从行人检测网络的第一层Conv1_2提取浅层特征,卷积神经网络第一层通常提取目标的形状、边缘等全局特征,称之为浅层特征;从行人检测网络的第五层Conv5_3提取深层特征,卷积层层次越深,提取的高级语义信息越丰富,具有某种程度上的平移和尺度不变性,这种不变性特征称之为深层特征。先对深层特征图上采样到与浅层特征图大小一致,然后将浅层特征与放大后的深层特征连接起来,得到融合后的特征,这种融合后的特征既可以获得目标的全局信息,又可以保留细节信息,有助于提高跟踪的精度。
设对于某个目标Z提取到的深层特征和浅层特征,共D个特征通道,分别记为Z1,…,Zd,…,ZD,Nd表示第d个通道Zd中的采样点数。使用连续域的特征表示可以获得物体更高的定位精度,为了处理连续域的学习问题,引入一个内插模型,将跟踪框转化为一维区间[0,T)∈R,R表示实数集。对每一个特征通道Zd,定义一个插值模型如式(6):
其中,标量T表示支持区间的大小,t为区间[0,T)中的取值,bd表示一个三次立方插值函数,插值模型Jd{Zd}(t)实际上可以视为插值函数bd平移之后叠加形成的函数,特征通道d中第n维的特征值Zd[n]可以视为相应的位移函数的权值,n∈{0,...,Nd-1}。得到在位置区间[0,T)的物体连续外观特征值J1{Z1}…,Jd{Zd},…,JD{ZD},∑Jd{Zd}表示物体Z的外观特征模型,简化表示为J{Z}。
步骤S22,通过训练样本训练滤波器,对于目标Z在步骤S21中其外观模型所构造的位置区间[0,T)内,使用相关滤波器计算跟踪目标在各个位置的置信度得分,得分最高的区域为物体的预测位置区域,得到各个目标的预测位置集合,从而构建物体的运动预测模型。然后移动目标跟踪框以预测位置区域为中心,更新物体的外观特征模型;
实施例中,使用一个线性卷积算子,将步骤S21所得样本空间的目标Z的外观特征模型J{Z},映射到目标置信函数s(t)=Sf(Z),s(t)即为目标在位置t的置信度得分,因此s(t)的最大值所对应的位置t就是目标所移动到的新位置。
算子Sf的推导方程如式(7):
其中,*表示卷积操作,fd是特征通道d的连续滤波器,D表示总的特征通道数。例如VGG16的第一层通道数为64,第五层通道数为512,那么D=64+512=576。d取值为1~D。训练连续卷积滤波器f,再通过求解上式,由P{x}=max(s(t))获得目标x的移动新中心点,记为P{x},即为物体的运动预测模型。
步骤S23,更新各个目标在当前帧的位置,再通过物体的外观特征模型进行比较,得出各个目标的外观置信度分数,判断当前跟踪的目标是否被遮挡,更新各个目标的跟踪状态,从而实现目标的自跟踪;
实施例中,根据马尔科夫决策过程,定义跟踪目标的状态为s∈S,其中S由激活态SActive、跟踪态STracked、丢失态SLost和闲置态SInactive组成,即S=SActive∪STracked∪SLost∪SInactive。
如图3所示跟踪过程中目标的状态图,行人检测模块检测到各个摄像头新出现的目标为激活态s=SActive,当目标检测框满足激活跟踪条件,即置信度高于设定阈值时,将该目标再转换为跟踪态;当目标检测框不满足激活跟踪条件,即目标检测框置信度太低或者和已经处于跟踪态的目标高度重叠,将该目标转为闲置态。跟踪态的目标是当前正在各个摄像头图像序列中跟踪的目标,在非检测帧根据运动预测模型对每一个目标采取自跟踪策略;在检测帧用外观模型特征和运动预测模型特征匹配目标检测框,以此达到修正跟踪目标位置和目标尺度变换的目的。其中,非检测帧是指不需要检测算法提供检测框的视频帧;检测帧是指需要检测算法提供检测框作为初始跟踪框的视频帧。丢失态为可能被遮挡的目标或者离开某一摄像头的目标,暂时未能在图像数据中显示出来的目标,目标处于丢失态时,根据行人重识别算法,检测到丢失目标后,保持该目标原始ID不变,状态恢复为跟踪态。若丢失目标长时间处于丢失态,未能通过目标重识别模块转为正常的跟踪态,则将该目标转为闲置态,不再对该目标进行任何后续跟踪计算,这样可以减少算法的计算耗时。
本步骤可由多目标跟踪模块实现,把检测到的行人结果传给跟踪模块,作为初始化跟踪目标,给每个目标一个不同的ID,并记录他们的轨迹。
步骤S3,持续进行新目标行人检测,并判断是否有目标消失,如果有则进入步骤S4进行行人重识别。
实施例中,考虑到跟踪过程中会遇到以下两种情况:
1)由于新的目标会不时进入摄像头视野,采用非固定性间隔多帧的方式,每隔F帧(在本发明实施例中F=5)调用一次检测模块进行行人检测,为新出现的目标分配新的ID。
2)如果跟踪框的置信度下降或者离开视频区域,多目标跟踪模块会把该目标最后一帧的跟踪信息传给行人重识别模块,并且调用行人检测模块对其他摄像头下的当前帧进行检测,得到的所有目标检测框也传给行人重识别模块,作为行人重识别的图像库。跨摄像头进行目标重识别的具体实现如图2所示,当摄像头S中的某个目标消失在它的视野时,多目标跟踪模块会调用行人检测模块和行人重识别模块,根据特征匹配的信息,在其他摄像头中找到该目标,保持ID不变继续跟踪。
步骤S4,行人重识别,包括得到目标消失信息之后,利用行人重识别算法,从行人检测网络得到的候选图像中找到与消失目标匹配度最高的图像,继续跟踪,跟踪结束时输出行人目标在多个摄像头下的运动轨迹。
本步骤可采用行人重识别模块实现。
行人重识别模块接收到跟踪模块传来的消失目标信息之后,会在检测到的匹配图像库中找到与消失目标匹配度最高的图像,传回给跟踪模块继续跟踪,此时传回的图像保持跟消失目标一样的ID,在跟踪结束时输出不同行人目标在多个摄像头下的运动轨迹。
实施例具体包括以下步骤:
步骤S41,设对某消失目标,通过行人检测得到N-1张候选图像,行人重识别模块的输入为目标跟踪模块传入的一张消失目标的图像以及行人检测模块传入的N-1张候选图像,对于每一张图像首先通过行人检测网络的第一层(低层)得到浅层特征图,然后利用显著度检测算法提取目标的显著度从而剔除背景中的冗余信息后送入深层卷积层,在第五层(高层)输出得到深层特征图。对浅层特征图与深层特征图进行融合,可先对深层特征图上采样到与浅层特征图大小一致,然后连接到一起,所以通道数是相加的。
在全局特征分支对浅层特征图与深层特征图融合之后的特征图进行全局池化,得到一维的全局特征向量。在局部特征分支对融合后的特征图做水平池化,也就是将图片分块为H行(具体实施时,用户可以预设取值,本发明实施例中设H=7),对每一行上都提取全局特征,再使用1×1卷积核进行降维,这样就得到了H维局部特征向量并且每一个向量都对应表征图像的一个横块,因此每一张输入图像可以被表征为一维全局特征(大小为1*2048)和H维局部特征(大小为7*128)。
步骤S42,根据步骤S41求出的全局特征向量,计算消失目标与N-1个候选目标全局特征向量之间的L2距离,然后通过目标对齐的方法计算出局部特征向量间的距离;
由于全局特征向量是一维向量,因此目标全局特征向量与N-1个候选对象全局特征向量之间的距离可以直接计算向量间的欧氏距离得到。对于同一个目标的两张图像,一张图像中目标的某块部分的局部特征总是与另一图像中目标的相对应部分的局部特征有着很高的相似度,例如不同图像下的同一个行人的头部部分的局部特征相似度很高,而不同的目标之间的局部特征则没有这一特性。基于这样一个特点,就可以将候选对象中的目标与非目标对象区分开来。将局部特征向量距离定义为从图像的顶部到底部各个局部部分进行动态匹配实现局部特征对齐的最小总距离。
假设两张图像的局部特征向量分别为F={f1,…,fH}和G={g1,…,gH},首先将距离归一化到[0,1)区间,归一化操作如式(8):
式中,e为自然对数的底数,为第一张图像由上到下第ih部分特征向量与第二张图像由上到下第jh部分特征向量的距离,基于上式可定义一个矩阵D,其中下标(ih,jh)对应的元素值因此给出局部特征向量距离的定义:矩阵D中从下标(1,1)到(H,H)的最短路径的距离。这个最短路径可以用以下动态规划方程式(9)描述:
步骤S43,计算消失目标图像与候选对象图像的最终距离,等于步骤S42计算出的全局特征向量距离加上局部特征向量距离,通过最终距离的大小给出候选对象图像与目标图像的初始相似度排序,距离越小,排名越靠前。
步骤S44,通过重排序算法得到最终的相似性排序结果,选择相似性最高的图像传回给多目标跟踪模块,实现对消失目标的持续跟踪。重排序算法的具体实现如图4所示,首先根据步骤S43得到的初始相似度排序,选出排名靠前的k张候选图像,称之为top-k图像;加上消失目标图像一共k+1张图像,把这个k+1张图像的特征向量相加,然后除以(k+1)得到平均特征向量;以求出的平均特征向量作为消失目标的特征,然后重新计算步骤S42中与N-1个候选目标图像的距离;最后根据计算得到的距离重新排序,排名第一的候选目标图像即为与消失目标匹配度最高的候选图像。
以上就是本发明的详细步骤,应当理解的是本说明书未详细阐述的部分均属于现有技术。具体实施时,可采用计算机软件技术实现以上流程的自动运行。
本发明的输入为多个摄像头下的视频序列,行人检测模块以及行人重识别模块都是服务于更加精确的多目标跟踪,最后输出不同行人目标在多摄像头下的运动轨迹和运动信息。通过在街道、火车站、地铁站、图书馆等人群密集场所进行监控实验,本发明能够进行精准的行人检测和跟踪,在跨摄像头之间目标交互或者有目标消失时能成功找回目标并继续跟踪,本发明提出的基于深度学习的浅层特征与深层特征结合的方式可以很好地克服目标遮挡、光照变化以及尺度变化等因素影响,实现对行人目标精确的实时跟踪。
Claims (4)
1.一种基于深度学习的跨摄像头行人检测跟踪方法,其特征在于,卷积神经网络的浅层卷积层包含适用于目标定位的高分辨率特征,深层卷积层包含易于区分的视觉特征,利用浅层特征与深层特征结合的方式提取行人在不同摄像头下不变的本质特征,克服光照变化和视角变化的影响,并且跟踪和行人重识别部分用到的特征也从检测网络中间层提取,将行人检测、关联跟踪和行人重识别有机地融合起来,并通过各模块间的信息交互,有效地降低了跟踪过程中跨摄像头的噪声干扰,提高了跨摄像头行人检测和跟踪的准确性和实时性,
实现方式包括设置三个模块,行人检测模块、多目标跟踪模块和行人重识别模块,输入为多个摄像头下的视频;
行人检测模块用于利用深度卷积神经网络,检测监控区域所有摄像头拍摄的视频序列中的行人目标,得到每个目标的置信度和边框坐标,利用改进的Faster RCNN网络进行行人检测,根据输入的不同摄像头下的视频序列,计算出行人目标在图像中的位置相应边框坐标信息以及置信度得分;
多目标跟踪模块用于将检测结果作为跟踪的初始化目标,提取检测网络的中间层特征对检测出来的行人目标进行特征建模,实现构建行人外观特征模型,利用相关滤波器预测计算目标的运动轨迹,实现多目标跟踪;
行人重识别模块用于解决跨摄像头情况下的目标消失问题,当跟踪过程中目标离开当前摄像头视野时,根据跟踪模块传来的消失目标信息,从行人检测模块检测出来的候选目标图像库中,通过求取全局特征和局部特征,找到相似度最高的匹配目标,返回给多目标跟踪模块继续跟踪;
以上模块结合实现的整个系统在主动结束跟踪或者所有行人目标离开监控区域摄像头的视野时,最后输出不同行人在多个摄像头下的运动轨迹以及运动信息;
系统执行包括以下步骤:
步骤S1,通过训练行人检测网络,对输入的监控视频序列进行行人检测;
步骤S2,以行人检测得到的目标框初始化跟踪目标,实现跟踪,包括提取行人检测网络中候选框所对应区域的浅层特征和深层特征,将浅层特征和深层特征结合起来作为物体的外观特征模型;
步骤S3,持续进行新目标行人检测,并判断是否有目标消失,如果有则进入步骤S4进行行人重识别;实现方式如下,
1)由于新的目标会不时进入摄像头视野,采用非固定性间隔多帧的方式,每隔F帧调用一次检测模块进行行人检测,为新出现的目标分配新的ID;
2)如果跟踪框的置信度下降或者离开视频区域,多目标跟踪模块会把该目标最后一帧的跟踪信息传给行人重识别模块,并且调用行人检测模块对其他摄像头下的当前帧进行检测,得到的所有目标检测框也传给行人重识别模块,作为行人重识别的图像库;
跨摄像头进行目标重识别实现方式为,当摄像头中的某个目标消失在它的视野时,多目标跟踪模块会调用行人检测模块和行人重识别模块,根据特征匹配的信息,在其他摄像头中找到该目标,保持ID不变继续跟踪;
步骤S4,行人重识别,包括得到目标消失信息之后,从行人检测网络得到的候选图像中找到与消失目标匹配度最高的图像,继续跟踪,跟踪结束时输出行人目标在多个摄像头下的运动轨迹。
2.根据权利要求1所述基于深度学习的跨摄像头行人检测跟踪方法,其特征在于:所述步骤S1包括以下子步骤,
步骤S11,构建行人检测网络的训练集;
步骤S12,训练行人检测网络;
步骤S13,对于待测试的视频序列,首先将每一帧分离出来,把图片送入行人检测网络中进行行人检测,得到所有行人目标的置信度score和边框信息,当置信度score大于设定阈值时,认为是行人目标,保留目标框;
步骤S14,基于步骤S13初步检测所得的准目标,利用非极大值抑制算法去除冗余框,得到最终的检测结果。
3.根据权利要求1所述基于深度学习的跨摄像头行人检测跟踪方法,其特征在于:所述步骤S2包括以下子步骤,
步骤S21,根据行人检测得到的行人目标候选框,提取行人检测网络中候选框所对应区域的浅层特征和深层特征,将浅层特征和深层特征结合起来作为物体的外观特征模型;
步骤S22,使用相关滤波器计算跟踪目标在各个位置的置信度得分,得分最高的区域为物体的预测位置区域,从而得到各个目标的预测位置集合;
步骤S23,更新各个目标在当前帧的位置,再通过物体的外观特征模型进行比较,得出各个目标的外观置信度分数,根据置信度分数降低的程度判断当前跟踪的目标是否被遮挡,不断更新各个目标的跟踪状态,从而实现目标的自跟踪;
实现方式为,行人检测模块检测到各个摄像头新出现的目标为激活态,当目标检测框满足激活跟踪条件,即置信度高于设定阈值时,将该目标再转换为跟踪态;当目标检测框不满足激活跟踪条件,即目标检测框置信度太低或者和已经处于跟踪态的目标高度重叠,将该目标转为闲置态;
跟踪态的目标是当前正在各个摄像头图像序列中跟踪的目标,在非检测帧根据运动预测模型对每一个目标采取自跟踪策略;在检测帧用外观模型特征和运动预测模型特征匹配目标检测框,以此达到修正跟踪目标位置和目标尺度变换的目的;其中,非检测帧是指不需要检测算法提供检测框的视频帧;检测帧是指需要检测算法提供检测框作为初始跟踪框的视频帧;
丢失态为可能被遮挡的目标或者离开某一摄像头的目标,暂时未能在图像数据中显示出来的目标,目标处于丢失态时,根据行人重识别算法,检测到丢失目标后,保持该目标原始ID不变,状态恢复为跟踪态;若丢失目标长时间处于丢失态,未能通过目标重识别模块转为正常的跟踪态,则将该目标转为闲置态,不再对该目标进行任何后续跟踪计算,以减少计算耗时;
步骤S2由多目标跟踪模块实现,把检测到的行人结果传给跟踪模块,作为初始化跟踪目标,给每个目标一个不同的ID,并记录他们的轨迹。
4.根据权利要求1所述基于深度学习的跨摄像头行人检测跟踪方法,其特征在于:所述步骤S4包括以下子步骤,
步骤S41,将目标跟踪所得最后一帧消失目标的图像,以及行人检测所得的多张候选图像作为输入,对于每一张图像首先通过行人检测网络的低层得到浅层特征图,再利用显著度检测算法提取目标的显著度剔除背景中的冗余信息,然后送入深层卷积层,输出深层特征图;融合浅层特征图和深层特征图,对融合后特征图进行全局池化得到全局特征向量,进行水平池化得到局部特征向量;
步骤S42,根据步骤S41求出的全局特征向量,计算消失目标与候选目标全局特征向量之间的L2距离,然后通过目标对齐的方法计算出局部特征向量间的距离;
步骤S43,计算消失目标图像与候选对象图像的最终距离,最终距离等于全局特征向量距离加上局部特征向量距离,根据最终距离的大小得到候选对象图像与消失目标图像的初始相似度排序;
步骤S44,通过重排序算法得到最终的相似性排序结果,选择相似性最高的图像继续跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810512107.2A CN108875588B (zh) | 2018-05-25 | 2018-05-25 | 基于深度学习的跨摄像头行人检测跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810512107.2A CN108875588B (zh) | 2018-05-25 | 2018-05-25 | 基于深度学习的跨摄像头行人检测跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108875588A CN108875588A (zh) | 2018-11-23 |
CN108875588B true CN108875588B (zh) | 2022-04-15 |
Family
ID=64333020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810512107.2A Active CN108875588B (zh) | 2018-05-25 | 2018-05-25 | 基于深度学习的跨摄像头行人检测跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108875588B (zh) |
Families Citing this family (107)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583373B (zh) * | 2018-11-29 | 2022-08-19 | 成都索贝数码科技股份有限公司 | 一种行人重识别实现方法 |
CN109766796B (zh) * | 2018-12-20 | 2023-04-18 | 西华大学 | 一种面向密集人群的深度行人检测方法 |
CN111353349B (zh) * | 2018-12-24 | 2023-10-17 | 杭州海康威视数字技术股份有限公司 | 人体关键点检测方法、装置、电子设备及存储介质 |
CN109711332B (zh) * | 2018-12-26 | 2021-03-26 | 浙江捷尚视觉科技股份有限公司 | 一种基于回归算法的人脸跟踪方法及应用 |
CN109800794B (zh) * | 2018-12-27 | 2021-10-22 | 上海交通大学 | 一种外观相似目标的跨相机重识别融合方法及系统 |
CN109800667A (zh) * | 2018-12-28 | 2019-05-24 | 广州烽火众智数字技术有限公司 | 一种行人跟踪方法和系统 |
CN109801275B (zh) * | 2019-01-11 | 2021-09-10 | 北京邮电大学 | 基于图像识别的马铃薯病害检测方法和系统 |
CN109903310B (zh) * | 2019-01-23 | 2024-09-27 | 平安科技(深圳)有限公司 | 目标跟踪方法、装置、计算机装置及计算机存储介质 |
CN109840489A (zh) * | 2019-01-24 | 2019-06-04 | 深圳市云恩科技有限公司 | 一种渡口行人运动跟踪检测系统及其检测方法 |
CN111507999B (zh) * | 2019-01-30 | 2023-07-18 | 北京四维图新科技股份有限公司 | 一种基于fdsst算法的目标追踪方法及装置 |
CN109815770B (zh) * | 2019-01-31 | 2022-09-27 | 北京旷视科技有限公司 | 二维码检测方法、装置及系统 |
CN111524161B (zh) * | 2019-02-01 | 2023-05-05 | 杭州海康威视数字技术股份有限公司 | 提取轨迹的方法和装置 |
CN109886338A (zh) * | 2019-02-25 | 2019-06-14 | 苏州清研精准汽车科技有限公司 | 一种智能汽车测试图像标注方法、装置、系统及存储介质 |
CN109758756B (zh) * | 2019-02-28 | 2021-03-23 | 国家体育总局体育科学研究所 | 基于3d相机的体操视频分析方法及系统 |
CN111666960B (zh) * | 2019-03-06 | 2024-01-19 | 南京地平线机器人技术有限公司 | 图像识别方法、装置、电子设备及可读存储介质 |
CN111723602B (zh) * | 2019-03-19 | 2023-08-08 | 杭州海康威视数字技术股份有限公司 | 驾驶员的行为识别方法、装置、设备及存储介质 |
CN111739053B (zh) * | 2019-03-21 | 2022-10-21 | 四川大学 | 一种复杂场景下的在线多行人检测跟踪方法 |
CN109977893B (zh) * | 2019-04-01 | 2020-12-25 | 厦门大学 | 基于层次显著性通道学习的深度多任务行人再识别方法 |
CN110084146B (zh) * | 2019-04-08 | 2021-06-04 | 清华大学 | 基于遮挡感知自监督学习的行人检测方法及装置 |
CN110176024B (zh) | 2019-05-21 | 2023-06-02 | 腾讯科技(深圳)有限公司 | 在视频中对目标进行检测的方法、装置、设备和存储介质 |
CN110287798B (zh) * | 2019-05-27 | 2023-04-18 | 魏运 | 基于特征模块化和上下文融合的矢量网络行人检测方法 |
CN110348437B (zh) * | 2019-06-27 | 2022-03-25 | 电子科技大学 | 一种基于弱监督学习与遮挡感知的目标检测方法 |
DE102019209463A1 (de) * | 2019-06-27 | 2020-12-31 | Robert Bosch Gmbh | Verfahren zur Bestimmung eines Vertrauenswertes eines Objektes einer Klasse |
CN110267008B (zh) * | 2019-06-28 | 2021-10-22 | Oppo广东移动通信有限公司 | 图像处理方法、装置、服务器及存储介质 |
CN110378931A (zh) * | 2019-07-10 | 2019-10-25 | 成都数之联科技有限公司 | 一种基于多摄像头的行人目标移动轨迹获取方法及系统 |
CN110378929B (zh) * | 2019-07-12 | 2023-03-24 | 易诚高科(大连)科技有限公司 | 一种商业场所跨摄像头行人轨迹跟踪方法 |
CN110390283B (zh) * | 2019-07-12 | 2023-01-03 | 易诚高科(大连)科技有限公司 | 一种商业场景下跨摄像头行人重检索方法 |
CN110544268B (zh) * | 2019-07-29 | 2023-03-24 | 燕山大学 | 一种基于结构光及SiamMask网络的多目标跟踪方法 |
CN110633636B (zh) * | 2019-08-08 | 2023-06-30 | 平安科技(深圳)有限公司 | 尾随检测方法、装置、电子设备及存储介质 |
CN110516613B (zh) * | 2019-08-29 | 2023-04-18 | 大连海事大学 | 一种第一视角下的行人轨迹预测方法 |
CN110555428B (zh) * | 2019-09-12 | 2021-09-07 | 腾讯科技(深圳)有限公司 | 行人重识别方法、装置、服务器以及存储介质 |
CN110706250B (zh) * | 2019-09-27 | 2022-04-01 | 广东博智林机器人有限公司 | 一种对象的跟踪方法、装置、系统及存储介质 |
US11176417B2 (en) * | 2019-10-06 | 2021-11-16 | International Business Machines Corporation | Method and system for producing digital image features |
CN110728249B (zh) * | 2019-10-21 | 2023-07-28 | 上海市刑事科学技术研究院 | 目标行人的跨摄像机识别方法、装置及系统 |
CN110956646B (zh) * | 2019-10-30 | 2023-04-18 | 北京迈格威科技有限公司 | 目标跟踪方法、装置、设备及存储介质 |
CN110852219B (zh) * | 2019-10-30 | 2022-07-08 | 广州海格星航信息科技有限公司 | 一种多行人跨摄像头在线跟踪系统 |
CN110866480B (zh) * | 2019-11-07 | 2021-09-17 | 浙江大华技术股份有限公司 | 对象的跟踪方法及装置、存储介质、电子装置 |
CN112773262A (zh) * | 2019-11-08 | 2021-05-11 | 珠海市一微半导体有限公司 | 基于扫地机器人的安防控制方法、扫地机器人及芯片 |
CN112861572B (zh) * | 2019-11-27 | 2024-05-28 | 杭州萤石软件有限公司 | 行人检测方法、计算机可读存储介质及电子设备 |
CN111079600A (zh) * | 2019-12-06 | 2020-04-28 | 长沙海格北斗信息技术有限公司 | 多摄像头的行人识别方法及识别系统 |
CN111027462A (zh) * | 2019-12-06 | 2020-04-17 | 长沙海格北斗信息技术有限公司 | 跨多摄像头的行人轨迹识别方法 |
CN111008993A (zh) * | 2019-12-06 | 2020-04-14 | 江西洪都航空工业集团有限责任公司 | 一种行人跨镜追踪的方法及装置 |
CN111159475B (zh) * | 2019-12-06 | 2022-09-23 | 中山大学 | 基于多摄像头视频图像的行人再识别路径生成方法 |
CN111145213A (zh) * | 2019-12-10 | 2020-05-12 | 中国银联股份有限公司 | 一种目标跟踪方法、装置、系统及计算机可读存储介质 |
CN113012193B (zh) * | 2019-12-20 | 2022-07-26 | 四川大学 | 一种基于深度学习的多行人跟踪方法 |
CN113128282A (zh) * | 2019-12-31 | 2021-07-16 | 深圳云天励飞技术有限公司 | 一种人群类别的划分方法、装置及终端 |
CN111145551A (zh) * | 2020-01-03 | 2020-05-12 | 南京邮电大学 | 一种基于cnn检测遵章率的路口交通规划系统 |
CN111223125B (zh) * | 2020-01-06 | 2023-05-09 | 江苏大学 | 一种基于Python环境下的目标运动视频跟踪方法 |
CN111340092B (zh) * | 2020-02-21 | 2023-09-22 | 浙江大华技术股份有限公司 | 一种目标关联处理方法及装置 |
CN111291705B (zh) * | 2020-02-24 | 2024-04-19 | 北京交通大学 | 一种跨多目标域行人重识别方法 |
CN111340848A (zh) * | 2020-02-26 | 2020-06-26 | 重庆中科云从科技有限公司 | 对目标区域的对象跟踪方法、系统、设备及介质 |
CN111460926B (zh) * | 2020-03-16 | 2022-10-14 | 华中科技大学 | 一种融合多目标跟踪线索的视频行人检测方法 |
CN111401276B (zh) * | 2020-03-20 | 2024-05-17 | 广东光速智能设备有限公司 | 一种安全帽佩戴识别方法及系统 |
CN111489380B (zh) * | 2020-04-14 | 2022-04-12 | 上海天诚比集科技有限公司 | 一种目标物体轨迹分析方法 |
CN111524162B (zh) * | 2020-04-15 | 2022-04-01 | 上海摩象网络科技有限公司 | 一种跟踪目标的找回方法、设备及手持相机 |
CN111598180B (zh) * | 2020-05-21 | 2023-07-14 | 湖南警察学院 | 一种自动识别取证目标跟踪方法 |
CN111612827B (zh) * | 2020-05-21 | 2023-12-15 | 广州海格通信集团股份有限公司 | 基于多摄像头的目标位置确定方法、装置和计算机设备 |
CN111626350B (zh) * | 2020-05-25 | 2021-05-18 | 腾讯科技(深圳)有限公司 | 目标检测模型训练方法、目标检测方法及装置 |
CN111652107B (zh) * | 2020-05-28 | 2024-05-21 | 北京市商汤科技开发有限公司 | 对象计数方法及装置、电子设备和存储介质 |
CN111814857B (zh) * | 2020-06-29 | 2021-07-06 | 浙江大华技术股份有限公司 | 目标重识别方法及其网络训练方法、相关装置 |
CN112001225B (zh) * | 2020-07-06 | 2023-06-23 | 西安电子科技大学 | 一种在线多目标跟踪方法、系统及应用 |
JP7494033B2 (ja) | 2020-07-07 | 2024-06-03 | 株式会社日立製作所 | アクティビティ検出装置、アクティビティ検出システム及びアクティビティ検出方法 |
CN111985321A (zh) * | 2020-07-14 | 2020-11-24 | 浙江大华技术股份有限公司 | 目标物体检测方法、电子设备及存储介质 |
CN111898485A (zh) * | 2020-07-14 | 2020-11-06 | 浙江大华技术股份有限公司 | 一种停车位车辆检测处理方法及装置 |
CN111860318A (zh) * | 2020-07-20 | 2020-10-30 | 杭州品茗安控信息技术股份有限公司 | 一种建筑工地行人徘徊检测方法、装置、设备及存储介质 |
CN111970434A (zh) * | 2020-07-22 | 2020-11-20 | 吉林省智擎工业软件研究院有限公司 | 多摄像机多目标的运动员跟踪拍摄视频生成系统及方法 |
CN112242940B (zh) * | 2020-07-31 | 2023-06-06 | 广州微林软件有限公司 | 一种箱柜食物智能管理系统及管理方法 |
CN112131929B (zh) * | 2020-08-06 | 2022-10-11 | 北京航空航天大学 | 一种基于区块链的跨摄像机行人跟踪系统及方法 |
CN111915653B (zh) * | 2020-08-17 | 2024-06-14 | 沈阳飞机工业(集团)有限公司 | 双站视觉目标跟踪的方法 |
CN112037256A (zh) * | 2020-08-17 | 2020-12-04 | 中电科新型智慧城市研究院有限公司 | 目标跟踪方法、装置、终端设备及计算机可读存储介质 |
CN111986233B (zh) * | 2020-08-20 | 2023-02-10 | 西安电子科技大学 | 基于特征自学习的大场景极小目标遥感视频跟踪方法 |
CN112085119A (zh) * | 2020-09-17 | 2020-12-15 | 上海眼控科技股份有限公司 | 数据处理方法、装置、设备和存储介质 |
CN112132873A (zh) * | 2020-09-24 | 2020-12-25 | 天津锋物科技有限公司 | 一种基于计算机视觉的多镜头行人识别与跟踪 |
CN112149740B (zh) * | 2020-09-25 | 2021-12-28 | 上海商汤智能科技有限公司 | 目标重识别方法、装置、存储介质及设备 |
CN111932590B (zh) * | 2020-09-28 | 2021-03-16 | 创新奇智(广州)科技有限公司 | 对象跟踪方法、装置、电子设备及可读存储介质 |
CN112150508B (zh) * | 2020-09-29 | 2023-03-03 | 济南博观智能科技有限公司 | 一种目标追踪方法、装置及相关设备 |
CN112200106A (zh) * | 2020-10-16 | 2021-01-08 | 中国计量大学 | 跨相机行人重识别与跟踪方法 |
CN112507835B (zh) * | 2020-12-01 | 2022-09-20 | 燕山大学 | 一种基于深度学习技术分析多目标对象行为的方法及系统 |
CN112560617B (zh) * | 2020-12-05 | 2023-08-01 | 江苏爱科赛尔云数据科技有限公司 | 基于阵列相机的大场景行人轨迹跟踪方法 |
CN112257684B (zh) * | 2020-12-07 | 2021-04-16 | 之江实验室 | 一种基于实时视频流的跨摄像头全局行人跟踪方法 |
CN112507953B (zh) * | 2020-12-21 | 2022-10-14 | 重庆紫光华山智安科技有限公司 | 一种目标搜索及追踪方法和装置及设备 |
CN112686178B (zh) * | 2020-12-30 | 2024-04-16 | 中国电子科技集团公司信息科学研究院 | 一种多视角目标轨迹生成方法、装置和电子设备 |
CN112686166B (zh) * | 2020-12-31 | 2023-04-18 | 遵义师范学院 | 基于有限源数据的遗失物检测及提示方法 |
CN112906483B (zh) * | 2021-01-25 | 2024-01-23 | 中国银联股份有限公司 | 一种目标重识别方法、装置及计算机可读存储介质 |
CN112785627A (zh) * | 2021-02-02 | 2021-05-11 | 电子科技大学 | 一种基于重识别技术的多目标跟踪方法 |
CN112926410B (zh) * | 2021-02-03 | 2024-05-14 | 深圳市维海德技术股份有限公司 | 目标跟踪方法、装置、存储介质及智能视频系统 |
CN113011435B (zh) * | 2021-02-04 | 2024-09-10 | 精英数智科技股份有限公司 | 目标对象的图像处理方法、装置及电子设备 |
CN112801018B (zh) * | 2021-02-07 | 2023-07-07 | 广州大学 | 一种跨场景目标自动识别与追踪方法及应用 |
CN113034544B (zh) * | 2021-03-19 | 2024-10-15 | 奥比中光科技集团股份有限公司 | 一种基于深度相机的人流分析方法及装置 |
CN113012201B (zh) * | 2021-03-24 | 2024-03-19 | 中国北方车辆研究所 | 一种基于深度学习的地面无人平台人员跟踪方法 |
CN113095199B (zh) * | 2021-04-06 | 2022-06-14 | 复旦大学 | 一种高速行人识别方法及装置 |
CN113012203B (zh) * | 2021-04-15 | 2023-10-20 | 南京莱斯电子设备有限公司 | 一种复杂背景下高精度多目标跟踪方法 |
CN113158891B (zh) * | 2021-04-20 | 2022-08-19 | 杭州像素元科技有限公司 | 一种基于全局特征匹配的跨摄像头行人重识别方法 |
CN113052876B (zh) * | 2021-04-25 | 2022-09-02 | 合肥中科类脑智能技术有限公司 | 一种基于深度学习的视频接力跟踪方法及系统 |
CN113257008B (zh) * | 2021-05-12 | 2022-06-21 | 兰州交通大学 | 基于深度学习的行人流量动态控制系统及方法 |
CN113408492B (zh) * | 2021-07-23 | 2022-06-14 | 四川大学 | 一种基于全局-局部特征动态对齐的行人重识别方法 |
CN113420738B (zh) * | 2021-08-24 | 2021-11-09 | 中国地质大学(武汉) | 自适应网络遥感图像分类方法、计算机设备及存储介质 |
CN113837024A (zh) * | 2021-09-02 | 2021-12-24 | 北京新橙智慧科技发展有限公司 | 一种基于多模态的跨境追踪方法 |
CN113743380B (zh) * | 2021-11-03 | 2022-02-15 | 江苏博子岛智能产业技术研究院有限公司 | 一种基于视频图像动态监测的主动跟踪方法 |
CN114187546B (zh) * | 2021-12-01 | 2024-06-25 | 山东大学 | 组合性动作识别方法及系统 |
CN113870320B (zh) * | 2021-12-06 | 2022-06-10 | 北京建筑大学 | 一种基于深度神经网络的行人追踪监控方法及系统 |
CN114639117B (zh) * | 2022-03-14 | 2024-09-06 | 西安电子科技大学 | 一种跨境特定行人追踪的方法和装置 |
CN115100591A (zh) * | 2022-06-17 | 2022-09-23 | 哈尔滨工业大学 | 基于联合学习的多目标跟踪与目标重识别系统及方法 |
CN115937773B (zh) * | 2022-12-06 | 2023-10-24 | 南京小网科技有限责任公司 | 一种基于ai识别的智能影像识别系统 |
CN117237879B (zh) * | 2023-11-06 | 2024-04-26 | 浙江大学 | 一种轨迹追踪方法和系统 |
CN117395377B (zh) * | 2023-12-06 | 2024-03-22 | 上海海事大学 | 基于多视角融合的岸桥海侧安全监控方法、系统、介质 |
CN118015662A (zh) * | 2024-04-09 | 2024-05-10 | 沈阳二一三电子科技有限公司 | 基于Transformer多头自注意力机制的跨摄像头行人重识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102436662A (zh) * | 2011-11-29 | 2012-05-02 | 南京信息工程大学 | 一种非重叠视域多摄像机网络中的人体目标跟踪方法 |
CN104318588A (zh) * | 2014-11-04 | 2015-01-28 | 北京邮电大学 | 一种基于位置感知判别外观模型的多摄像机目标跟踪方法 |
CN106097391A (zh) * | 2016-06-13 | 2016-11-09 | 浙江工商大学 | 一种基于深度神经网络的识别辅助的多目标跟踪方法 |
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN107992819A (zh) * | 2017-11-29 | 2018-05-04 | 青岛海信网络科技股份有限公司 | 一种车辆属性结构化特征的确定方法与装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8100342B1 (en) * | 2010-06-30 | 2012-01-24 | Polycorp Inc. | Shallow flangeway rail seal |
CN103605362B (zh) * | 2013-09-11 | 2016-03-02 | 天津工业大学 | 基于车辆轨迹多特征的运动模式学习及异常检测方法 |
CN104094279B (zh) * | 2014-04-30 | 2017-05-10 | 中国科学院自动化研究所 | 大范围优先的跨摄像机视觉目标再识别方法 |
CN105160319B (zh) * | 2015-08-31 | 2018-10-16 | 电子科技大学 | 一种在监控视频下实现行人再识别的方法 |
CN105631413A (zh) * | 2015-12-23 | 2016-06-01 | 中通服公众信息产业股份有限公司 | 一种基于深度学习的跨场景行人搜索方法 |
CN105930868B (zh) * | 2016-04-20 | 2019-02-12 | 北京航空航天大学 | 一种基于层次化增强学习的低分辨率机场目标检测方法 |
CN105957105B (zh) * | 2016-04-22 | 2018-10-02 | 清华大学 | 基于行为学习的多目标跟踪方法及系统 |
CN107688784A (zh) * | 2017-08-23 | 2018-02-13 | 福建六壬网安股份有限公司 | 一种基于深层特征和浅层特征融合的字符识别方法及存储介质 |
-
2018
- 2018-05-25 CN CN201810512107.2A patent/CN108875588B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102436662A (zh) * | 2011-11-29 | 2012-05-02 | 南京信息工程大学 | 一种非重叠视域多摄像机网络中的人体目标跟踪方法 |
CN104318588A (zh) * | 2014-11-04 | 2015-01-28 | 北京邮电大学 | 一种基于位置感知判别外观模型的多摄像机目标跟踪方法 |
CN106097391A (zh) * | 2016-06-13 | 2016-11-09 | 浙江工商大学 | 一种基于深度神经网络的识别辅助的多目标跟踪方法 |
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN107992819A (zh) * | 2017-11-29 | 2018-05-04 | 青岛海信网络科技股份有限公司 | 一种车辆属性结构化特征的确定方法与装置 |
Non-Patent Citations (3)
Title |
---|
全卷积网络多层特征融合的飞机快速检测;辛鹏等;《光学学报 》;20180331;第38卷(第3期);第1-7页 * |
基于改进YOLOv2网络的遗留物检测算法;张瑞林等;《浙江理工大学学报(自然科学版)》;20171211;第39卷(第03期);第325-332页 * |
目标跟踪算法综述;卢湖川等;《模式识别与人工智能》;20180131;第31卷(第1期);第61-76页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108875588A (zh) | 2018-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108875588B (zh) | 基于深度学习的跨摄像头行人检测跟踪方法 | |
Yang et al. | Extraction of 2d motion trajectories and its application to hand gesture recognition | |
Portmann et al. | People detection and tracking from aerial thermal views | |
Yang et al. | Recognizing hand gestures using motion trajectories | |
US8345984B2 (en) | 3D convolutional neural networks for automatic human action recognition | |
CN111914664A (zh) | 基于重识别的车辆多目标检测和轨迹跟踪方法 | |
Ogale | A survey of techniques for human detection from video | |
US20170255832A1 (en) | Method and System for Detecting Actions in Videos | |
CN109191497A (zh) | 一种基于多种信息融合的实时在线多目标跟踪方法 | |
CN105069434B (zh) | 一种视频中人体动作行为识别方法 | |
CN106097391A (zh) | 一种基于深度神经网络的识别辅助的多目标跟踪方法 | |
Noh et al. | Adaptive sliding-window strategy for vehicle detection in highway environments | |
Khan et al. | Multi-person tracking based on faster R-CNN and deep appearance features | |
CN114639117B (zh) | 一种跨境特定行人追踪的方法和装置 | |
CN113763427B (zh) | 一种基于从粗到精遮挡处理的多目标跟踪方法 | |
Zhang et al. | A coarse to fine indoor visual localization method using environmental semantic information | |
CN114926859B (zh) | 一种结合头部跟踪的密集场景下行人多目标跟踪方法 | |
CN111860297A (zh) | 一种应用于室内固定空间的slam回环检测方法 | |
Spinello et al. | Multimodal People Detection and Tracking in Crowded Scenes. | |
CN111862147A (zh) | 视频中多车辆和多行人目标的跟踪方法 | |
Hou et al. | Human detection and tracking over camera networks: A review | |
CN114627339A (zh) | 茂密丛林区域对越境人员的智能识别跟踪方法及存储介质 | |
Xiang et al. | Multitarget tracking using hough forest random field | |
CN114038011A (zh) | 一种室内场景下人体异常行为的检测方法 | |
Wang et al. | Face tracking using motion-guided dynamic template matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |