CN111652909A - 一种基于深度哈希特征的行人多目标追踪方法 - Google Patents
一种基于深度哈希特征的行人多目标追踪方法 Download PDFInfo
- Publication number
- CN111652909A CN111652909A CN202010318731.6A CN202010318731A CN111652909A CN 111652909 A CN111652909 A CN 111652909A CN 202010318731 A CN202010318731 A CN 202010318731A CN 111652909 A CN111652909 A CN 111652909A
- Authority
- CN
- China
- Prior art keywords
- target
- pedestrian
- det
- trk
- hash
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度哈希特征的行人多目标追踪方法。该方法为:选取行人重识别Market‑1501数据集训练残差网络ResNet50;结合行人重识别及哈希图像检索思想,将训练好的ResNet50作为基础网络模型与全连接哈希层相连接构建深度哈希网络模型;选取新的行人重识别数据集训练深度哈希网络,并使用此网络提取行人深度哈希表观特征;结合行人表观特征及与运动特征作为行人特征描述子,并在追踪过程中融合中断恢复机制以完成行人多目标追踪。本发明有效减少了行人多目标追踪过程中由于目标遮挡、目标交互产生的身份交换数量,提升了追踪精度。
Description
技术领域
本发明涉及计算机视觉技术领域,特别是一种基于深度哈希特征的行人多目标追踪方法。
背景技术
近年来,随着人工智能技术的发展,计算机视觉愈发得到海内外学者关注。计算机视觉囊括多个研究方向,例如目标检测、目标追踪、图像分类、图像分割等等。随着计算机视觉技术的完善,越来越多的视觉算法也被应用在现实场景中。在安防领域,例如车站、体育场等人员密集场景;小区、银行等安防监控场景;景区、地铁等人流量统计场景,都需要对监控摄像头抓捕的视频信息进行实时分析。传统监控方法主要依靠人工对视频信息进行统计分析,这种方法不仅效率低,误检、漏检情况也相对较多,此外,仅依靠人工分析是如此庞大数量的监控视频是不现实的,所以利用视觉算法对视频进行自动化分析具有重要研究意义。
目标检测与目标追踪是计算机视觉领域的热点问题,而目标追踪中的多目标追踪问题因其实用价值极高更是研究的重中之重,它可以应用于视频监控、人机交互、虚拟现实等方向。目标追踪算法可以对视野内指定目标进行实时追踪,通过目标检测、位置预测、数据关联的方式获取目标移动轨迹。此外,多追踪算法还可以获取目标更为细节的信息,例如位置、速度、加速度、方向等,多样化的信息对目标状态分析、场景状态分析均有很大的帮助,因此越来越多的智能视觉分析算法依赖于多目标追踪完成。在如此大环境下,大量的多目标追踪算法被提出,但算法的准确性、普适性以及实用性仍有巨大的进步空间。多目标跟踪场景一般较为复杂,存在大量影响追踪结果因素例如:频繁遮挡、目标高速移动、目标方向变化等等,在复杂追踪场景中保证追踪准确性也是一大难点。多目标追踪算法作为众多视觉应用的基础,具有重要的研究意义。
早期的多目标追踪算法大多在特征表示部分使用目标的运动特征,例如位置重叠度(IOU)等。当目标运动状态规律且无复杂情况发生时,此类算法表现优异,而在现实复杂场景中运动特征表现不佳。在目标遮挡、目标交互、方向突变、尺度突变情况频发的场景中,若仅使用运动特征,目标遮挡和目标交互会引起追踪过程中频繁的目标ID交换。此外,方向与尺度的突变会造成运动特征失效导致追踪频繁中断而产生大量追踪碎片及冗余轨迹。而这些问题也是多目标追踪问题面临的主要挑战。
发明内容
本发明的目的在于提供一种可以减少目标遮挡、目标交互影响的基于深度哈希特征的行人多目标追踪方法。
实现本发明目的的技术解决方案为:一种基于深度哈希特征的行人多目标追踪方法,在行人多目标追踪过程中使用深度哈希表观特征与运动特征描述行人,同时结合追踪中断恢复机制减少追踪时身份交换次数以提升追踪准确率,包括以下步骤:
步骤1、计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间运动特征相似度Simmot(trki,detj)。
步骤2、计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间表观特征相似度Simapp(trki,detj)。
步骤3、结合步骤1、步骤2结果,计算目标检测集合Dt中deti与目标轨迹集合Tt-1在t帧中预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C。
步骤4、基于代价矩阵使用匈牙利算法计算Dt与Tt-1集合间最优匹配,将成功匹配的检测结果及轨迹存至已匹配矩阵matched matrix,将未匹配det存至未匹配检测集合未匹配trk存至未匹配轨迹集合
步骤5、遍历matched matrix,如果匹配结果中trk,det的重叠度小于阈值β,计算其表观特征相似度,若表观特征相似度大于阈值γ,认为其匹配成功,否则匹配失败,trk,det从matched matrix移至
步骤6、将未匹配目标集合视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器。将未匹配目标集合视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束。
步骤7、当数据关联完成,根据匹配矩阵matched matrix对应关系使用检测集合Dt更新轨迹集合Tt-1,存为新的轨迹集合Tt。
步骤8、返回第t帧目标轨迹集合Tt。
进一步的,步骤1所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki运动特征相似度Simmot(trki,detj),具体如下:
使用表示当前帧共M个目标的检测框集合,其中表示ID为j的目标检测框,x、y代表检测框左上角点横纵坐标,w、h分别代表检测框的长、宽;使用表示卡尔曼滤波器对前一帧所有目标在当前帧的预测框集合,其中det与trk间运动特征相似度的计算方法为,其中Area代表检测框面积:
进一步的,步骤2所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki表观特征相似度Simapp(trki,detj),具体如下:
步骤2.1:以在ImageNet上预训练的ResNet50为基础网络模型,同时定义网络输入大小为224*224,将原始网络全连接层输出维度从1024维降低至751维,同时调整最终全连接层前两层网络结构并冻结除最后三层外所有网络层参数。
步骤2.2:将ResNet50与全连接Hash层相连构建HashNet网络;在追踪框架中,首先使用HashNet作为深度哈希编码器,通过端到端的方式对检测到的所有目标图像进行深度哈希编码特征提取,之后计算各个目标间的特征相似度进行数据关联:。
步骤2.3:在使用HashNet对目标图像进行特征提取时,首先使用在Market-1501预训练过的Resnet50进行特征提取,之后将此深度特征投入全连接Hash层,通过全连接层将深度图像特征表示转为T维特征表示。最后通过下式激活函数h=sign(x)对T维特征进行(-1,1)哈希编码,得到位数为T的深度哈希特征。
步骤2.4:最后,设定哈希特征编码位数T=80,哈希编码方式为(-1,1)编码,采用如下式所示方法计算哈希编码间相似度。
hashcodex={x1,x2,...,xT}
hashcodey={y1,y2,...,yT}
进一步的,步骤3所述结合步骤1、步骤2结果,计算行人目标检测集合Dt中行人目标detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C;具体如下:
步骤3.1:通过设置权重的方式将运动特征与表观特征相结合,提高目标特征鲁棒性。其中选取检测框重叠度(IOU)作为运动特征,特征融合方式如下式所示,其中α为运动特征相似度的权重。
Sim(trki,detj)=α×Simmot(trki,detj)+(1-α)×Simapp(trki,detj)
步骤3.2:根据不同场景进行调整α的取值。如果场景中没有频繁的目标交互且目标运动状态比较规律,例如高速公路场景,可以适当提高运动特征权重;相反的,当追踪场景复杂则需要降低α,提升表观特征权重以处理遮挡、交互等问题。
步骤3.3:不同预测框与检测框之间的Sim(trki,detj)组成了数据关联模块中匈牙利算法的代价矩阵,匈牙利算法根据代价矩阵寻找不同目标间的最优匹配结果。
进一步的,步骤6所述将未匹配目标集台视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器。将未匹配目标集台视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束。具体如下:
步骤6.2:追踪过程中实时更新池内特征,当特征池存满后,会将池内存在时间最长的特征替换为新的特征。
步骤6.3:计算trki与detj间表观特征相似度,选取特征池中id=i的所有特征作为当前行人id特征集合之后选择行人检测目标detj与特征池集合中特征相似度最大值作为detj与trki的最终特征相似度,其计算表达式如下,其中InnSim代表向量内积相似度:
本发明与现有技术相比,其显著优点为:(1)在追踪数据关联时使用融合特征的思想,将目标表观特征与运动特征相结合以提升特征鲁棒性;(2)在表观特征提取方面,借鉴图像检索、行人重识别的思想,构建深度哈希网络并使用行人重识别数据集对其进行训练。通过此网络提取行人图像深度哈希特征作为行人表观特征,该深度哈希表换特征可以更好地描述行人目标;(3)改进了传统多目标追踪机制,提出特征池的概念保存未匹配到目标的轨迹特征信息以实现追踪中断后的身份恢复。
附图说明
图1为本发明基于深度哈希特征的行人多目标追踪方法的流程图。
图2为在行人视频中追踪实验效果图,其中(a)为对视频中密集的人群完成多目标追踪任务效果图,(b)为对视频中稀疏车辆完成无目标任务效果图。
具体实施方式
本发明基于深度哈希特征的行人多目标追踪方法,该方法核心由运动特征表示模块,表观特征表示模块以及追踪失败恢复模块组成。首先使用行人重识别数据集训练残差网络ResNet50;将训练好的ResNet50与全连接哈希层相连接构建深度哈希网络,并使用此网络提取行人深度哈希表观特征;在获得目标检测框的基础上,采用交并比(IOU)作为行人运动特征表示;通过权重结合目标运动特征与表观特征并使用匈牙利算法进行行人目标数据关联,将关联结果保存为轨迹。在追踪过程中,如果出现目标遮挡、目标交互情况,采用追踪中断恢复机制及时将错误匹配的目标匹配到原有轨迹,避免身份交换情况的发生。本发明方法具体包括以下几个步骤:
步骤1、计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间运动特征相似度Simmot(trki,detj)。
步骤2、计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间表观特征相似度Simapp(trki,detj)。
步骤3、结合步骤1、步骤2结果,计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C。
步骤4、基于代价矩阵使用匈牙利算法计算Dt与Tt-1集合间最优匹配,将成功匹配的检测结果及轨迹存至已匹配矩阵matched matrix,将未匹配det存至未匹配检测集合未匹配trk存至未匹配轨迹集合
步骤5、遍历matched matrix,如果匹配结果中trk,det的重叠度小于阈值β,计算其表观特征相似度,若表观特征相似度大于阈值γ,认为其匹配成功,否则匹配失败,trk,det从matched matrix移至
步骤6、将未匹配目标集合视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器。将未匹配目标集合视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束。
步骤7、当数据关联完成,根据匹配矩阵matched matrix对应关系使用检测集合Dt更新轨迹集合Tt-1,存为新的轨迹集合Tt。
步骤8、返回第t帧目标轨迹集合Tt。
进一步的,步骤1所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki运动特征相似度Simmot(trki,detj),具体如下:
使用表示当前帧共M个目标的检测框集合,其中表示ID为j的目标检测框,x、y代表检测框左上角点横纵坐标,w、h分别代表检测框的长、宽;使用表示卡尔曼滤波器对前一帧所有目标在当前帧的预测框集合,其中det与trk间运动特征相似度的计算方法为,其中Area代表检测框面积:
进一步的,步骤2所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki表观特征相似度Simapp(trki,detj),具体如下:
步骤2.1:以在ImageNet上预训练的ResNet50为基础网络模型,同时定义网络输入大小为224*224,将原始网络全连接层输出维度从1024维降低至751维,同时调整最终全连接层前两层网络结构并冻结除最后三层外所有网络层参数。
步骤2.2:将ResNet50与全连接Hash层相连构建HashNet网络;在追踪框架中,首先使用HashNet作为深度哈希编码器,通过端到端的方式对检测到的所有目标图像进行深度哈希编码特征提取,之后计算各个目标间的特征相似度进行数据关联:。
步骤2.3:在使用HashNet对目标图像进行特征提取时,首先使用在Market-1501预训练过的Resnet50进行特征提取,之后将此深度特征投入全连接Hash层,通过全连接层将深度图像特征表示转为T维特征表示。最后通过下式激活函数h=sign(x)对T维特征进行(-1,1)哈希编码,得到位数为T的深度哈希特征。
步骤2.4:最后,设定哈希特征编码位数T=80,哈希编码方式为(-1,1)编码,采用如下式所示方法计算哈希编码间相似度。
hashcodex={x1,x2,...,xT}
hashcodey={y1,y2,...,yT}
进一步的,步骤3所述结合步骤1、步骤2结果,计算行人目标检测集合Dt中行人目标detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C;具体如下:
步骤3.1:通过设置权重的方式将运动特征与表观特征相结合,提高目标特征鲁棒性。其中选取检测框重叠度(IOU)作为运动特征,特征融合方式如下式所示,其中α为运动特征相似度的权重。
Sim(trki,detj)=α×Simmot(trki,detj)+(1-α)×Simapp(trki,detj)
步骤3.2:根据不同场景进行调整α的取值。如果场景中没有频繁的目标交互且目标运动状态比较规律,例如高速公路场景,可以适当提高运动特征权重;相反的,当追踪场景复杂则需要降低α,提升表观特征权重以处理遮挡、交互等问题。
步骤3.3:不同预测框与检测框之间的Sim(trki,detj)组成了数据关联模块中匈牙利算法的代价矩阵,匈牙利算法根据代价矩阵寻找不同目标间的最优匹配结果。
进一步的,步骤6所述将未匹配目标集合视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器。将未匹配目标集合视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束。具体如下:
步骤6.2:追踪过程中实时更新池内特征,当特征池存满后,会将池内存在时间最长的特征替换为新的特征。
步骤6.3:计算trki与detj间表观特征相似度,选取特征池中id=i的所有特征作为当前行人id特征集合之后选择行人检测目标detj与特征池集合中特征相似度最大值作为detj与trki的最终特征相似度,其计算表达式如下,其中InnSim代表向量内积相似度:
图2展示了本发明在实际拍摄视频中对行人的多目标追踪结果,通过结果可以看出本发明可以准确对行人目标进行追踪,且能够处理一些遮挡、交互情况,追踪准确度较高,效果较好。本发明着重对行人多目标追踪问题中特征表示及数据关联部分进行研究,提出了深度哈希行人特征表示方法并设计追踪中断恢复机制以减少追踪过程中ID交换数量,提升追踪精确度。
Claims (5)
1.一种基于深度哈希特征的行人多目标追踪方法,其特征在于,包括以下几个步骤:
步骤1、计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki间运动特征相似度Simmot(trki,detj);
步骤2、计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki间表观特征相似度Simapp(trki,detj)。
步骤3、结合步骤1、步骤2结果,计算目标检测集合Dt中detj与目标轨迹集合Tt-1在t帧中预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C;
步骤4、基于代价矩阵使用匈牙利算法计算Dt与Tt-1集合间最优匹配,将成功匹配的检测结果及轨迹存至已匹配矩阵matched matrix,将未匹配det存至未匹配检测集合未匹配trk存至未匹配轨迹集合
步骤5、遍历matched matrix,如果匹配结果中trk,det的重叠度小于阈值β,计算其表观特征相似度,若表观特征相似度大于阈值γ,认为其匹配成功,否则匹配失败,trk,det从matched matrix移至
步骤6、将未匹配目标集合视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器;将未匹配目标集合视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束;
步骤7、当行人检测目标与现存行人轨迹关联完成时,根据匹配矩阵matched matrix对应关系使用检测集合Dt更新轨迹集合Tt-1,存为新的轨迹集合Tt;
步骤8、返回第t帧目标轨迹集合Tt。
3.根据权利要求1所述的基于深度哈希特征的行人多目标追踪方法,其特征在于,步骤2所述计算行人目标检测集合Dt中行人目标检测结果detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki表观特征相似度Simapp(trki,detj),具体如下:
步骤2.1:以在ImageNet上预训练的ResNet50为基础网络模型,同时定义网络输入大小为224*224,将原始网络全连接层输出维度从1024维降低至751维,同时调整最终全连接层前两层网络结构并冻结除最后三层外所有网络层参数;
步骤2.2:将ResNet50与全连接Hash层相连构建HashNet网络;在追踪框架中,首先使用HashNet作为深度哈希编码器,通过端到端的方式对检测到的所有目标图像进行深度哈希编码特征提取,之后计算各个目标间的特征相似度进行数据关联;
步骤2.3:在使用HashNet对目标图像进行特征提取时,首先使用在Market-1501预训练过的Resnet50进行特征提取,之后将此深度特征投入全连接Hash层,通过全连接层将深度图像特征表示转为T维特征表示;最后通过下式激活函数h=sign(x)对T维特征进行(-1,1)哈希编码,得到位数为T的深度哈希特征;
步骤2.4:设定哈希特征编码位数T=80,哈希编码方式为(-1,1)编码,采用如下式所示方法计算哈希编码间相似度
hashcodex={x1,x2,…,xT}
hashcodey={y1,y2,…,yT}
4.根据权利要求1所述的基于深度哈希特征的行人多目标追踪方法,其特征在于,步骤3所述结合步骤1、步骤2结果,计算行人目标检测集合Dt中行人目标detj与行人目标轨迹集合Tt-1在t帧中行人位置预测框trki间相似度Simapp(trki,detj),并保存为代价矩阵C;具体如下:
步骤3.1:通过设置权重的方式将运动特征与表观特征相结合;选取检测框重叠度IOU作为运动特征,特征融合方式如下式所示,其中α为运动特征相似度的权重
Sim(trki,detj)=α×Simmot(trki,detj)+(1-α)×Simapp(trki,detj);
步骤3.2:根据不同场景调整α的取值;如果场景中没有频繁的目标交互且目标运动状态规律,提高运动特征权重;相反的,当追踪场景复杂则降低α,提升表观特征权重;
步骤3.3:不同预测框与检测框之间的Sim(trki,detj)组成数据关联模块中匈牙利算法的代价矩阵,采用匈牙利算法根据代价矩阵寻找不同目标间的最优匹配结果。
5.根据权利要求1所述的基于深度哈希特征的行人多目标追踪方法,其特征在于,步骤6所述将未匹配目标集合视为新出现目标集合,为其中每个det分配新的卡尔曼滤波器;将未匹配目标集合视为目标暂时消失轨迹集合,记录其集合内每个trk的存在时间,如果在轨迹存在时间达到生命周期θ时仍未匹配到任何目标,认为目标完全消失,追踪结束;具体如下:
步骤6.2:追踪过程中实时更新池内特征,当特征池存满后,将池内存在时间最长的特征替换为新的特征;
步骤6.3:计算trki与detj间表观特征相似度,选取特征池中id=i的所有特征作为当前行人id特征集合之后选择行人检测目标detj与特征池集合中特征相似度最大值作为detj与trki的最终特征相似度,其计算表达式如下,其中InnSim代表向量内积相似度:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010318731.6A CN111652909B (zh) | 2020-04-21 | 2020-04-21 | 一种基于深度哈希特征的行人多目标追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010318731.6A CN111652909B (zh) | 2020-04-21 | 2020-04-21 | 一种基于深度哈希特征的行人多目标追踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111652909A true CN111652909A (zh) | 2020-09-11 |
CN111652909B CN111652909B (zh) | 2022-11-04 |
Family
ID=72348502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010318731.6A Active CN111652909B (zh) | 2020-04-21 | 2020-04-21 | 一种基于深度哈希特征的行人多目标追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111652909B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070807A (zh) * | 2020-11-11 | 2020-12-11 | 湖北亿咖通科技有限公司 | 多目标跟踪方法和电子装置 |
CN112465078A (zh) * | 2021-02-03 | 2021-03-09 | 成都点泽智能科技有限公司 | 跨摄像头行人轨迹处理方法、计算机设备及可读存储介质 |
CN112581506A (zh) * | 2020-12-31 | 2021-03-30 | 北京澎思科技有限公司 | 人脸跟踪方法、系统及计算机可读存储介质 |
CN113221750A (zh) * | 2021-05-13 | 2021-08-06 | 杭州飞步科技有限公司 | 车辆追踪方法、装置、设备及存储介质 |
CN113420679A (zh) * | 2021-06-26 | 2021-09-21 | 南京搜文信息技术有限公司 | 一种人工智能跨相机多目标追踪系统及追踪算法 |
WO2022127876A1 (zh) * | 2020-12-16 | 2022-06-23 | 影石创新科技股份有限公司 | 目标跟踪的方法、计算机可读存储介质及计算机设备 |
WO2022217840A1 (zh) * | 2021-04-15 | 2022-10-20 | 南京莱斯电子设备有限公司 | 一种复杂背景下高精度多目标跟踪方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203513A (zh) * | 2016-07-08 | 2016-12-07 | 浙江工业大学 | 一种基于行人头肩多目标检测及跟踪的统计方法 |
CN106327502A (zh) * | 2016-09-06 | 2017-01-11 | 山东大学 | 一种安防视频中多场景多目标识别和跟踪方法 |
CN109816690A (zh) * | 2018-12-25 | 2019-05-28 | 北京飞搜科技有限公司 | 基于深度特征的多目标追踪方法及系统 |
-
2020
- 2020-04-21 CN CN202010318731.6A patent/CN111652909B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203513A (zh) * | 2016-07-08 | 2016-12-07 | 浙江工业大学 | 一种基于行人头肩多目标检测及跟踪的统计方法 |
CN106327502A (zh) * | 2016-09-06 | 2017-01-11 | 山东大学 | 一种安防视频中多场景多目标识别和跟踪方法 |
CN109816690A (zh) * | 2018-12-25 | 2019-05-28 | 北京飞搜科技有限公司 | 基于深度特征的多目标追踪方法及系统 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070807A (zh) * | 2020-11-11 | 2020-12-11 | 湖北亿咖通科技有限公司 | 多目标跟踪方法和电子装置 |
CN112070807B (zh) * | 2020-11-11 | 2021-02-05 | 湖北亿咖通科技有限公司 | 多目标跟踪方法和电子装置 |
WO2022127876A1 (zh) * | 2020-12-16 | 2022-06-23 | 影石创新科技股份有限公司 | 目标跟踪的方法、计算机可读存储介质及计算机设备 |
CN112581506A (zh) * | 2020-12-31 | 2021-03-30 | 北京澎思科技有限公司 | 人脸跟踪方法、系统及计算机可读存储介质 |
CN112465078A (zh) * | 2021-02-03 | 2021-03-09 | 成都点泽智能科技有限公司 | 跨摄像头行人轨迹处理方法、计算机设备及可读存储介质 |
CN112465078B (zh) * | 2021-02-03 | 2021-04-16 | 成都点泽智能科技有限公司 | 跨摄像头行人轨迹处理方法、计算机设备及可读存储介质 |
WO2022217840A1 (zh) * | 2021-04-15 | 2022-10-20 | 南京莱斯电子设备有限公司 | 一种复杂背景下高精度多目标跟踪方法 |
CN113221750A (zh) * | 2021-05-13 | 2021-08-06 | 杭州飞步科技有限公司 | 车辆追踪方法、装置、设备及存储介质 |
CN113420679A (zh) * | 2021-06-26 | 2021-09-21 | 南京搜文信息技术有限公司 | 一种人工智能跨相机多目标追踪系统及追踪算法 |
CN113420679B (zh) * | 2021-06-26 | 2024-04-26 | 南京搜文信息技术有限公司 | 一种人工智能跨相机多目标追踪系统及追踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111652909B (zh) | 2022-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111652909B (zh) | 一种基于深度哈希特征的行人多目标追踪方法 | |
CN109800689B (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
CN110781838A (zh) | 一种复杂场景下行人的多模态轨迹预测方法 | |
CN113744311A (zh) | 基于全连接注意力模块的孪生神经网络运动目标跟踪方法 | |
CN113468950A (zh) | 一种基于深度学习的无人驾驶场景下的多目标跟踪方法 | |
CN110968711B (zh) | 一种基于序列图像特征的自主无人系统位置识别定位方法 | |
CN114926859B (zh) | 一种结合头部跟踪的密集场景下行人多目标跟踪方法 | |
CN103729861A (zh) | 一种多目标跟踪方法 | |
CN104834894A (zh) | 一种结合二进制编码和类-Hausdorff距离的手势识别方法 | |
Prokaj et al. | Using 3d scene structure to improve tracking | |
Wang et al. | Simple but effective: Upper-body geometric features for traffic command gesture recognition | |
Folenta et al. | Determining vehicle turn counts at multiple intersections by separated vehicle classes using CNNs | |
CN115731287B (zh) | 基于集合与拓扑空间的运动目标检索方法 | |
Erçelik et al. | Temp-frustum net: 3d object detection with temporal fusion | |
Liu et al. | Weighted sequence loss based spatial-temporal deep learning framework for human body orientation estimation | |
CN114820723B (zh) | 一种基于联合检测和关联的在线多目标跟踪方法 | |
Shi et al. | A New Horizon: Employing Map Clustering Similarity for LiDAR-based Place Recognition | |
CN115830643A (zh) | 一种姿势引导对齐的轻量行人重识别方法 | |
CN115482585A (zh) | 一种三维空间内场景感知的人体动作预测方法 | |
CN112613472B (zh) | 一种基于深度搜索匹配的行人检测方法及系统 | |
El Madany et al. | Integrating entropy skeleton motion maps and convolutional neural networks for human action recognition | |
Li et al. | Review of multi-object tracking based on deep learning | |
Zheng et al. | A Real-Time Vehicle Indoor Positioning Algorithm Based on Multi-Camera Perception | |
Chen et al. | CBi-GNN: Cross-Scale Bilateral Graph Neural Network for 3D Object Detection | |
Chen et al. | An Automatic key-frame selection method for visual odometry based on the improved PWC-NET |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Lian Zhichao Inventor after: Shao Shuai Inventor after: Mu Hanmude Inventor after: A Dili Inventor before: Shao Shuai Inventor before: Muhammad Adili Inventor before: Lian Zhichao |
|
GR01 | Patent grant | ||
GR01 | Patent grant |