CN111652909A - 一种基于深度哈希特征的行人多目标追踪方法 - Google Patents
一种基于深度哈希特征的行人多目标追踪方法 Download PDFInfo
- Publication number
- CN111652909A CN111652909A CN202010318731.6A CN202010318731A CN111652909A CN 111652909 A CN111652909 A CN 111652909A CN 202010318731 A CN202010318731 A CN 202010318731A CN 111652909 A CN111652909 A CN 111652909A
- Authority
- CN
- China
- Prior art keywords
- target
- pedestrian
- feature
- det
- trk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000033001 locomotion Effects 0.000 claims abstract description 37
- 230000003993 interaction Effects 0.000 claims abstract description 12
- 230000008569 process Effects 0.000 claims abstract description 9
- 238000001514 detection method Methods 0.000 claims description 66
- 239000011159 matrix material Substances 0.000 claims description 30
- 238000004422 calculation algorithm Methods 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 3
- 238000007500 overflow downdraw method Methods 0.000 claims description 3
- 238000011084 recovery Methods 0.000 abstract description 6
- 230000007246 mechanism Effects 0.000 abstract description 5
- 238000011160 research Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000035772 mutation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度哈希特征的行人多目标追踪方法。该方法为:选取行人重识别Market‑1501数据集训练残差网络ResNet50;结合行人重识别及哈希图像检索思想,将训练好的ResNet50作为基础网络模型与全连接哈希层相连接构建深度哈希网络模型;选取新的行人重识别数据集训练深度哈希网络,并使用此网络提取行人深度哈希表观特征;结合行人表观特征及与运动特征作为行人特征描述子,并在追踪过程中融合中断恢复机制以完成行人多目标追踪。本发明有效减少了行人多目标追踪过程中由于目标遮挡、目标交互产生的身份交换数量,提升了追踪精度。
Description
技术领域
本发明涉及计算机视觉技术领域,特别是一种基于深度哈希特征的行人多目标追踪方法。
背景技术
近年来,随着人工智能技术的发展,计算机视觉愈发得到海内外学者关注。计算机视觉囊括多个研究方向,例如目标检测、目标追踪、图像分类、图像分割等等。随着计算机视觉技术的完善,越来越多的视觉算法也被应用在现实场景中。在安防领域,例如车站、体育场等人员密集场景;小区、银行等安防监控场景;景区、地铁等人流量统计场景,都需要对监控摄像头抓捕的视频信息进行实时分析。传统监控方法主要依靠人工对视频信息进行统计分析,这种方法不仅效率低,误检、漏检情况也相对较多,此外,仅依靠人工分析是如此庞大数量的监控视频是不现实的,所以利用视觉算法对视频进行自动化分析具有重要研究意义。
目标检测与目标追踪是计算机视觉领域的热点问题,而目标追踪中的多目标追踪问题因其实用价值极高更是研究的重中之重,它可以应用于视频监控、人机交互、虚拟现实等方向。目标追踪算法可以对视野内指定目标进行实时追踪,通过目标检测、位置预测、数据关联的方式获取目标移动轨迹。此外,多追踪算法还可以获取目标更为细节的信息,例如位置、速度、加速度、方向等,多样化的信息对目标状态分析、场景状态分析均有很大的帮助,因此越来越多的智能视觉分析算法依赖于多目标追踪完成。在如此大环境下,大量的多目标追踪算法被提出,但算法的准确性、普适性以及实用性仍有巨大的进步空间。多目标跟踪场景一般较为复杂,存在大量影响追踪结果因素例如:频繁遮挡、目标高速移动、目标方向变化等等,在复杂追踪场景中保证追踪准确性也是一大难点。多目标追踪算法作为众多视觉应用的基础,具有重要的研究意义。
早期的多目标追踪算法大多在特征表示部分使用目标的运动特征,例如位置重叠度(IOU)等。当目标运动状态规律且无复杂情况发生时,此类算法表现优异,而在现实复杂场景中运动特征表现不佳。在目标遮挡、目标交互、方向突变、尺度突变情况频发的场景中,若仅使用运动特征,目标遮挡和目标交互会引起追踪过程中频繁的目标ID交换。此外,方向与尺度的突变会造成运动特征失效导致追踪频繁中断而产生大量追踪碎片及冗余轨迹。而这些问题也是多目标追踪问题面临的主要挑战。
发明内容
本发明的目的在于提供一种可以减少目标遮挡、目标交互影响的基于深度哈希特征的行人多目标追踪方法。
实现本发明目的的技术解决方案为:一种基于深度哈希特征的行人多目标追踪方法,在行人多目标追踪过程中使用深度哈希表观特征与运动特征描述行人,同时结合追踪中断恢复机制减少追踪时身份交换次数以提升追踪准确率,包括以下步骤:
步骤1、计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间运动特征相似度Simmot(trki,detj)。
步骤2、计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间表观特征相似度Simapp(trki,detj)。
步骤3、结合步骤1、步骤2结果,计算目标检测集合Dt中deti与目标轨迹集合Tt-1在t帧中预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C。
步骤4、基于代价矩阵使用匈牙利算法计算Dt与Tt-1集合间最优匹配,将成功匹配的检测结果及轨迹存至已匹配矩阵matched matrix,将未匹配det存至未匹配检测集合未匹配trk存至未匹配轨迹集合
步骤5、遍历matched matrix,如果匹配结果中trk,det的重叠度小于阈值β,计算其表观特征相似度,若表观特征相似度大于阈值γ,认为其匹配成功,否则匹配失败,trk,det从matched matrix移至
步骤6、将未匹配目标集合视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器。将未匹配目标集合视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束。
步骤7、当数据关联完成,根据匹配矩阵matched matrix对应关系使用检测集合Dt更新轨迹集合Tt-1,存为新的轨迹集合Tt。
步骤8、返回第t帧目标轨迹集合Tt。
进一步的,步骤1所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki运动特征相似度Simmot(trki,detj),具体如下:
使用表示当前帧共M个目标的检测框集合,其中表示ID为j的目标检测框,x、y代表检测框左上角点横纵坐标,w、h分别代表检测框的长、宽;使用表示卡尔曼滤波器对前一帧所有目标在当前帧的预测框集合,其中det与trk间运动特征相似度的计算方法为,其中Area代表检测框面积:
进一步的,步骤2所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki表观特征相似度Simapp(trki,detj),具体如下:
步骤2.1:以在ImageNet上预训练的ResNet50为基础网络模型,同时定义网络输入大小为224*224,将原始网络全连接层输出维度从1024维降低至751维,同时调整最终全连接层前两层网络结构并冻结除最后三层外所有网络层参数。
步骤2.2:将ResNet50与全连接Hash层相连构建HashNet网络;在追踪框架中,首先使用HashNet作为深度哈希编码器,通过端到端的方式对检测到的所有目标图像进行深度哈希编码特征提取,之后计算各个目标间的特征相似度进行数据关联:。
步骤2.3:在使用HashNet对目标图像进行特征提取时,首先使用在Market-1501预训练过的Resnet50进行特征提取,之后将此深度特征投入全连接Hash层,通过全连接层将深度图像特征表示转为T维特征表示。最后通过下式激活函数h=sign(x)对T维特征进行(-1,1)哈希编码,得到位数为T的深度哈希特征。
步骤2.4:最后,设定哈希特征编码位数T=80,哈希编码方式为(-1,1)编码,采用如下式所示方法计算哈希编码间相似度。
hashcodex={x1,x2,...,xT}
hashcodey={y1,y2,...,yT}
进一步的,步骤3所述结合步骤1、步骤2结果,计算行人目标检测集合Dt中行人目标detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C;具体如下:
步骤3.1:通过设置权重的方式将运动特征与表观特征相结合,提高目标特征鲁棒性。其中选取检测框重叠度(IOU)作为运动特征,特征融合方式如下式所示,其中α为运动特征相似度的权重。
Sim(trki,detj)=α×Simmot(trki,detj)+(1-α)×Simapp(trki,detj)
步骤3.2:根据不同场景进行调整α的取值。如果场景中没有频繁的目标交互且目标运动状态比较规律,例如高速公路场景,可以适当提高运动特征权重;相反的,当追踪场景复杂则需要降低α,提升表观特征权重以处理遮挡、交互等问题。
步骤3.3:不同预测框与检测框之间的Sim(trki,detj)组成了数据关联模块中匈牙利算法的代价矩阵,匈牙利算法根据代价矩阵寻找不同目标间的最优匹配结果。
进一步的,步骤6所述将未匹配目标集台视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器。将未匹配目标集台视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束。具体如下:
步骤6.2:追踪过程中实时更新池内特征,当特征池存满后,会将池内存在时间最长的特征替换为新的特征。
步骤6.3:计算trki与detj间表观特征相似度,选取特征池中id=i的所有特征作为当前行人id特征集合之后选择行人检测目标detj与特征池集合中特征相似度最大值作为detj与trki的最终特征相似度,其计算表达式如下,其中InnSim代表向量内积相似度:
本发明与现有技术相比,其显著优点为:(1)在追踪数据关联时使用融合特征的思想,将目标表观特征与运动特征相结合以提升特征鲁棒性;(2)在表观特征提取方面,借鉴图像检索、行人重识别的思想,构建深度哈希网络并使用行人重识别数据集对其进行训练。通过此网络提取行人图像深度哈希特征作为行人表观特征,该深度哈希表换特征可以更好地描述行人目标;(3)改进了传统多目标追踪机制,提出特征池的概念保存未匹配到目标的轨迹特征信息以实现追踪中断后的身份恢复。
附图说明
图1为本发明基于深度哈希特征的行人多目标追踪方法的流程图。
图2为在行人视频中追踪实验效果图,其中(a)为对视频中密集的人群完成多目标追踪任务效果图,(b)为对视频中稀疏车辆完成无目标任务效果图。
具体实施方式
本发明基于深度哈希特征的行人多目标追踪方法,该方法核心由运动特征表示模块,表观特征表示模块以及追踪失败恢复模块组成。首先使用行人重识别数据集训练残差网络ResNet50;将训练好的ResNet50与全连接哈希层相连接构建深度哈希网络,并使用此网络提取行人深度哈希表观特征;在获得目标检测框的基础上,采用交并比(IOU)作为行人运动特征表示;通过权重结合目标运动特征与表观特征并使用匈牙利算法进行行人目标数据关联,将关联结果保存为轨迹。在追踪过程中,如果出现目标遮挡、目标交互情况,采用追踪中断恢复机制及时将错误匹配的目标匹配到原有轨迹,避免身份交换情况的发生。本发明方法具体包括以下几个步骤:
步骤1、计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间运动特征相似度Simmot(trki,detj)。
步骤2、计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间表观特征相似度Simapp(trki,detj)。
步骤3、结合步骤1、步骤2结果,计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C。
步骤4、基于代价矩阵使用匈牙利算法计算Dt与Tt-1集合间最优匹配,将成功匹配的检测结果及轨迹存至已匹配矩阵matched matrix,将未匹配det存至未匹配检测集合未匹配trk存至未匹配轨迹集合
步骤5、遍历matched matrix,如果匹配结果中trk,det的重叠度小于阈值β,计算其表观特征相似度,若表观特征相似度大于阈值γ,认为其匹配成功,否则匹配失败,trk,det从matched matrix移至
步骤6、将未匹配目标集合视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器。将未匹配目标集合视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束。
步骤7、当数据关联完成,根据匹配矩阵matched matrix对应关系使用检测集合Dt更新轨迹集合Tt-1,存为新的轨迹集合Tt。
步骤8、返回第t帧目标轨迹集合Tt。
进一步的,步骤1所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki运动特征相似度Simmot(trki,detj),具体如下:
使用表示当前帧共M个目标的检测框集合,其中表示ID为j的目标检测框,x、y代表检测框左上角点横纵坐标,w、h分别代表检测框的长、宽;使用表示卡尔曼滤波器对前一帧所有目标在当前帧的预测框集合,其中det与trk间运动特征相似度的计算方法为,其中Area代表检测框面积:
进一步的,步骤2所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki表观特征相似度Simapp(trki,detj),具体如下:
步骤2.1:以在ImageNet上预训练的ResNet50为基础网络模型,同时定义网络输入大小为224*224,将原始网络全连接层输出维度从1024维降低至751维,同时调整最终全连接层前两层网络结构并冻结除最后三层外所有网络层参数。
步骤2.2:将ResNet50与全连接Hash层相连构建HashNet网络;在追踪框架中,首先使用HashNet作为深度哈希编码器,通过端到端的方式对检测到的所有目标图像进行深度哈希编码特征提取,之后计算各个目标间的特征相似度进行数据关联:。
步骤2.3:在使用HashNet对目标图像进行特征提取时,首先使用在Market-1501预训练过的Resnet50进行特征提取,之后将此深度特征投入全连接Hash层,通过全连接层将深度图像特征表示转为T维特征表示。最后通过下式激活函数h=sign(x)对T维特征进行(-1,1)哈希编码,得到位数为T的深度哈希特征。
步骤2.4:最后,设定哈希特征编码位数T=80,哈希编码方式为(-1,1)编码,采用如下式所示方法计算哈希编码间相似度。
hashcodex={x1,x2,...,xT}
hashcodey={y1,y2,...,yT}
进一步的,步骤3所述结合步骤1、步骤2结果,计算行人目标检测集合Dt中行人目标detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C;具体如下:
步骤3.1:通过设置权重的方式将运动特征与表观特征相结合,提高目标特征鲁棒性。其中选取检测框重叠度(IOU)作为运动特征,特征融合方式如下式所示,其中α为运动特征相似度的权重。
Sim(trki,detj)=α×Simmot(trki,detj)+(1-α)×Simapp(trki,detj)
步骤3.2:根据不同场景进行调整α的取值。如果场景中没有频繁的目标交互且目标运动状态比较规律,例如高速公路场景,可以适当提高运动特征权重;相反的,当追踪场景复杂则需要降低α,提升表观特征权重以处理遮挡、交互等问题。
步骤3.3:不同预测框与检测框之间的Sim(trki,detj)组成了数据关联模块中匈牙利算法的代价矩阵,匈牙利算法根据代价矩阵寻找不同目标间的最优匹配结果。
进一步的,步骤6所述将未匹配目标集合视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器。将未匹配目标集合视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束。具体如下:
步骤6.2:追踪过程中实时更新池内特征,当特征池存满后,会将池内存在时间最长的特征替换为新的特征。
步骤6.3:计算trki与detj间表观特征相似度,选取特征池中id=i的所有特征作为当前行人id特征集合之后选择行人检测目标detj与特征池集合中特征相似度最大值作为detj与trki的最终特征相似度,其计算表达式如下,其中InnSim代表向量内积相似度:
图2展示了本发明在实际拍摄视频中对行人的多目标追踪结果,通过结果可以看出本发明可以准确对行人目标进行追踪,且能够处理一些遮挡、交互情况,追踪准确度较高,效果较好。本发明着重对行人多目标追踪问题中特征表示及数据关联部分进行研究,提出了深度哈希行人特征表示方法并设计追踪中断恢复机制以减少追踪过程中ID交换数量,提升追踪精确度。
Claims (5)
1.一种基于深度哈希特征的行人多目标追踪方法,其特征在于,包括以下几个步骤:
步骤1、计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki间运动特征相似度Simmot(trki,detj);
步骤2、计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki间表观特征相似度Simapp(trki,detj)。
步骤3、结合步骤1、步骤2结果,计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C;
步骤4、基于代价矩阵使用匈牙利算法计算Dt与Tt-1集合间最优匹配,将成功匹配的检测结果及轨迹存至已匹配矩阵matched matrix,将未匹配det存至未匹配检测集合未匹配trk存至未匹配轨迹集合
步骤5、遍历matched matrix,如果匹配结果中trk,det的重叠度小于阈值β,计算其表观特征相似度,若表观特征相似度大于阈值γ,认为其匹配成功,否则匹配失败,trk,det从matched matrix移至
步骤6、将未匹配目标集合视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器;将未匹配目标集合视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束;
步骤7、当行人检测目标与现存行人轨迹关联完成时,根据匹配矩阵matched matrix对应关系使用检测集合Dt更新轨迹集合Tt-1,存为新的轨迹集合Tt;
步骤8、返回第t帧目标轨迹集合Tt。
3.根据权利要求1所述的基于深度哈希特征的行人多目标追踪方法,其特征在于,步骤2所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki表观特征相似度Simapp(trki,detj),具体如下:
步骤2.1:以在ImageNet上预训练的ResNet50为基础网络模型,同时定义网络输入大小为224*224,将原始网络全连接层输出维度从1024维降低至751维,同时调整最终全连接层前两层网络结构并冻结除最后三层外所有网络层参数;
步骤2.2:将ResNet50与全连接Hash层相连构建HashNet网络;在追踪框架中,首先使用HashNet作为深度哈希编码器,通过端到端的方式对检测到的所有目标图像进行深度哈希编码特征提取,之后计算各个目标间的特征相似度进行数据关联;
步骤2.3:在使用HashNet对目标图像进行特征提取时,首先使用在Market-1501预训练过的Resnet50进行特征提取,之后将此深度特征投入全连接Hash层,通过全连接层将深度图像特征表示转为T维特征表示;最后通过下式激活函数h=sign(x)对T维特征进行(-1,1)哈希编码,得到位数为T的深度哈希特征;
步骤2.4:设定哈希特征编码位数T=80,哈希编码方式为(-1,1)编码,采用如下式所示方法计算哈希编码间相似度
hashcodex={x1,x2,…,xT}
hashcodey={y1,y2,…,yT}
4.根据权利要求1所述的基于深度哈希特征的行人多目标追踪方法,其特征在于,步骤3所述结合步骤1、步骤2结果,计算行人目标检测集合Dt中行人目标detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C;具体如下:
步骤3.1:通过设置权重的方式将运动特征与表观特征相结合;选取检测框重叠度IOU作为运动特征,特征融合方式如下式所示,其中α为运动特征相似度的权重
Sim(trki,detj)=α×Simmot(trki,detj)+(1-α)×Simapp(trki,detj);
步骤3.2:根据不同场景调整α的取值;如果场景中没有频繁的目标交互且目标运动状态规律,提高运动特征权重;相反的,当追踪场景复杂则降低α,提升表观特征权重;
步骤3.3:不同预测框与检测框之间的Sim(trki,detj)组成数据关联模块中匈牙利算法的代价矩阵,采用匈牙利算法根据代价矩阵寻找不同目标间的最优匹配结果。
5.根据权利要求1所述的基于深度哈希特征的行人多目标追踪方法,其特征在于,步骤6所述将未匹配目标集合视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器;将未匹配目标集合视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束;具体如下:
步骤6.2:追踪过程中实时更新池内特征,当特征池存满后,将池内存在时间最长的特征替换为新的特征;
步骤6.3:计算trki与detj间表观特征相似度,选取特征池中id=i的所有特征作为当前行人id特征集合之后选择行人检测目标detj与特征池集合中特征相似度最大值作为detj与trki的最终特征相似度,其计算表达式如下,其中InnSim代表向量内积相似度:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010318731.6A CN111652909B (zh) | 2020-04-21 | 2020-04-21 | 一种基于深度哈希特征的行人多目标追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010318731.6A CN111652909B (zh) | 2020-04-21 | 2020-04-21 | 一种基于深度哈希特征的行人多目标追踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111652909A true CN111652909A (zh) | 2020-09-11 |
CN111652909B CN111652909B (zh) | 2022-11-04 |
Family
ID=72348502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010318731.6A Active CN111652909B (zh) | 2020-04-21 | 2020-04-21 | 一种基于深度哈希特征的行人多目标追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111652909B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070807A (zh) * | 2020-11-11 | 2020-12-11 | 湖北亿咖通科技有限公司 | 多目标跟踪方法和电子装置 |
CN112465078A (zh) * | 2021-02-03 | 2021-03-09 | 成都点泽智能科技有限公司 | 跨摄像头行人轨迹处理方法、计算机设备及可读存储介质 |
CN112581506A (zh) * | 2020-12-31 | 2021-03-30 | 北京澎思科技有限公司 | 人脸跟踪方法、系统及计算机可读存储介质 |
CN113221750A (zh) * | 2021-05-13 | 2021-08-06 | 杭州飞步科技有限公司 | 车辆追踪方法、装置、设备及存储介质 |
CN113420679A (zh) * | 2021-06-26 | 2021-09-21 | 南京搜文信息技术有限公司 | 一种人工智能跨相机多目标追踪系统及追踪算法 |
WO2022127876A1 (zh) * | 2020-12-16 | 2022-06-23 | 影石创新科技股份有限公司 | 目标跟踪的方法、计算机可读存储介质及计算机设备 |
WO2022217840A1 (zh) * | 2021-04-15 | 2022-10-20 | 南京莱斯电子设备有限公司 | 一种复杂背景下高精度多目标跟踪方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203513A (zh) * | 2016-07-08 | 2016-12-07 | 浙江工业大学 | 一种基于行人头肩多目标检测及跟踪的统计方法 |
CN106327502A (zh) * | 2016-09-06 | 2017-01-11 | 山东大学 | 一种安防视频中多场景多目标识别和跟踪方法 |
CN109816690A (zh) * | 2018-12-25 | 2019-05-28 | 北京飞搜科技有限公司 | 基于深度特征的多目标追踪方法及系统 |
-
2020
- 2020-04-21 CN CN202010318731.6A patent/CN111652909B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203513A (zh) * | 2016-07-08 | 2016-12-07 | 浙江工业大学 | 一种基于行人头肩多目标检测及跟踪的统计方法 |
CN106327502A (zh) * | 2016-09-06 | 2017-01-11 | 山东大学 | 一种安防视频中多场景多目标识别和跟踪方法 |
CN109816690A (zh) * | 2018-12-25 | 2019-05-28 | 北京飞搜科技有限公司 | 基于深度特征的多目标追踪方法及系统 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070807A (zh) * | 2020-11-11 | 2020-12-11 | 湖北亿咖通科技有限公司 | 多目标跟踪方法和电子装置 |
CN112070807B (zh) * | 2020-11-11 | 2021-02-05 | 湖北亿咖通科技有限公司 | 多目标跟踪方法和电子装置 |
WO2022127876A1 (zh) * | 2020-12-16 | 2022-06-23 | 影石创新科技股份有限公司 | 目标跟踪的方法、计算机可读存储介质及计算机设备 |
CN112581506A (zh) * | 2020-12-31 | 2021-03-30 | 北京澎思科技有限公司 | 人脸跟踪方法、系统及计算机可读存储介质 |
CN112465078A (zh) * | 2021-02-03 | 2021-03-09 | 成都点泽智能科技有限公司 | 跨摄像头行人轨迹处理方法、计算机设备及可读存储介质 |
CN112465078B (zh) * | 2021-02-03 | 2021-04-16 | 成都点泽智能科技有限公司 | 跨摄像头行人轨迹处理方法、计算机设备及可读存储介质 |
WO2022217840A1 (zh) * | 2021-04-15 | 2022-10-20 | 南京莱斯电子设备有限公司 | 一种复杂背景下高精度多目标跟踪方法 |
CN113221750A (zh) * | 2021-05-13 | 2021-08-06 | 杭州飞步科技有限公司 | 车辆追踪方法、装置、设备及存储介质 |
CN113420679A (zh) * | 2021-06-26 | 2021-09-21 | 南京搜文信息技术有限公司 | 一种人工智能跨相机多目标追踪系统及追踪算法 |
CN113420679B (zh) * | 2021-06-26 | 2024-04-26 | 南京搜文信息技术有限公司 | 一种人工智能跨相机多目标追踪系统及追踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111652909B (zh) | 2022-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111652909B (zh) | 一种基于深度哈希特征的行人多目标追踪方法 | |
Zhang et al. | Non-rigid object tracking via deep multi-scale spatial-temporal discriminative saliency maps | |
CN107122736B (zh) | 一种基于深度学习的人体朝向预测方法及装置 | |
CN108875588B (zh) | 基于深度学习的跨摄像头行人检测跟踪方法 | |
CN107330920B (zh) | 一种基于深度学习的监控视频多目标追踪方法 | |
CN103208008B (zh) | 基于机器视觉的交通视频监控目标检测快速适应方法 | |
CN106682573B (zh) | 一种单摄像头的行人跟踪方法 | |
CN103246896B (zh) | 一种鲁棒性车辆实时检测与跟踪方法 | |
CN114972418A (zh) | 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法 | |
CN115984969A (zh) | 一种复杂场景下轻量级行人跟踪方法 | |
CN107145862A (zh) | 一种基于霍夫森林的多特征匹配多目标跟踪方法 | |
CN106709419B (zh) | 一种基于显著轨迹空间信息的视频人体行为识别方法 | |
CN111242985B (zh) | 基于马尔科夫模型的视频多行人追踪方法 | |
CN107609509A (zh) | 一种基于运动显著性区域检测的动作识别方法 | |
CN105809206A (zh) | 一种行人跟踪方法 | |
CN107688830A (zh) | 一种用于案件串并的现勘视觉信息关联图层生成方法 | |
CN115457082A (zh) | 一种基于多特征融合增强的行人多目标跟踪算法 | |
CN105654505A (zh) | 一种基于超像素的协同跟踪算法和系统 | |
CN106033548A (zh) | 基于改进字典学习的拥挤人群异常检测方法 | |
CN116863728B (zh) | 一种基于过街行人步速分类的信号配时方法与系统 | |
CN113408351A (zh) | 一种基于姿态引导生成对抗网络的行人重识别方法 | |
CN117237411A (zh) | 一种基于深度学习的行人多目标跟踪方法 | |
Prokaj et al. | Using 3d scene structure to improve tracking | |
CN114820723B (zh) | 一种基于联合检测和关联的在线多目标跟踪方法 | |
Bhola et al. | Real-time pedestrian tracking based on deep features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information |
Inventor after: Lian Zhichao Inventor after: Shao Shuai Inventor after: Mu Hanmude Inventor after: A Dili Inventor before: Shao Shuai Inventor before: Muhammad Adili Inventor before: Lian Zhichao |
|
CB03 | Change of inventor or designer information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |