CN115035158A - 目标跟踪的方法及装置、电子设备和存储介质 - Google Patents
目标跟踪的方法及装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN115035158A CN115035158A CN202210629461.XA CN202210629461A CN115035158A CN 115035158 A CN115035158 A CN 115035158A CN 202210629461 A CN202210629461 A CN 202210629461A CN 115035158 A CN115035158 A CN 115035158A
- Authority
- CN
- China
- Prior art keywords
- target
- features
- feature
- targets
- interested
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 161
- 238000003860 storage Methods 0.000 title claims abstract description 24
- 230000004927 fusion Effects 0.000 claims abstract description 163
- 238000001514 detection method Methods 0.000 claims abstract description 111
- 230000006399 behavior Effects 0.000 claims description 52
- 238000000605 extraction Methods 0.000 claims description 52
- 230000033001 locomotion Effects 0.000 claims description 48
- 238000012545 processing Methods 0.000 claims description 37
- 238000004590 computer program Methods 0.000 claims description 12
- 238000010586 diagram Methods 0.000 description 123
- 239000011159 matrix material Substances 0.000 description 63
- 230000003044 adaptive effect Effects 0.000 description 28
- 230000006870 function Effects 0.000 description 25
- 238000004422 calculation algorithm Methods 0.000 description 22
- 239000013598 vector Substances 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000005192 partition Methods 0.000 description 9
- 238000011176 pooling Methods 0.000 description 9
- 238000005070 sampling Methods 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 101000642315 Homo sapiens Spermatogenesis-associated protein 17 Proteins 0.000 description 4
- 102100036408 Spermatogenesis-associated protein 17 Human genes 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 210000000988 bone and bone Anatomy 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000017105 transposition Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 239000003651 drinking water Substances 0.000 description 1
- 235000020188 drinking water Nutrition 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及一种目标跟踪的方法及装置、电子设备和存储介质,涉及目标跟踪与行为检测技术领域。所述的目标跟踪的方法,包括:获取待处理视频图像中多时刻视频帧的多个感兴趣目标对应的位置特征及外观特征;根据所述多个感兴趣目标对应的位置特征确定所述多个感兴趣目标的第一遮挡关系;并基于所述第一遮挡关系,对所述多个感兴趣目标的位置特征及外观特征进行特征融合,得到初步的跟踪结果;基于所述第一遮挡关系及所述初步的跟踪结果确定最终的目标跟踪结果。本公开实施例可实现视频图像中多时刻视频帧的多个感兴趣目标的跟踪。
Description
技术领域
本公开涉及目标跟踪技术领域,尤其涉及一种目标跟踪的方法及装置、电子设备和存储介质。
背景技术
多目标跟踪技术因其理论与应用价值,吸引了大量的学者的关注,技术取不断的发展、取得了瞩目的成果。但 在应用过程中仍然存在不可忽视的难题:在跟踪中存在复杂背景、光照、多尺度形变、遮挡、多目标彼此之间干扰 等问题给多目标跟踪中的多个状态复杂的目标进行长时间连续识别的任务带来了很多挑战,使得多目标检跟踪技术 的精度与速度在实时的视频监控场景中距离应用还有较大的提升空间。随着对深度学习领域的研究方式不断的进行 更新,卷积神经网络进入到研究者的视野中,成为研究者们的热门的研究方向。在面对以上难题中,研究人员与学 者将深度学习应用到了多目标跟踪中,虽然取得了一定的成效,但并未将以上问题充分解决。因此,多目标检测与 跟踪技术需要更优化的算法,从而达到实用性和实时性的效果。
而角点特征同样具有重要的视觉感知信息,角点特征因其具有旋转不变性,缩放平移性、光照不变性以及对空 间梯度方向上的描述等局部不变性,使得其在目标之间相互遮挡,杂波较多、噪声较多的复杂场景仍然可以对目标 进行判别与跟踪。角点特征因其在GPU设备上的应用,使得其速度提升10倍以上,所以在目标识别领域与图像匹配 领域以及行为识别领域成功进行了应用;但在多目标跟踪领域因任务的特殊性,需要在连续的视频帧中,同时对多 个目标进行目标检测、特征提取、数据关联;若仅根据角点特征对多目标进行跟踪,会因目标运动导致对应目标角 点特征发生变化导致跟踪失败。
JDE(Jointly learns the Detector and Embedding model)率先提出,,将表观特征提取模型合并到目标检测器中,以 便该模型可以同时输出行人检测结果和对应的行人表观特征,采用FPN作为检测模型,使用Triplet loss作为表观模 型的损失函数,使用卡尔曼滤波器作为运动模型预测轨迹在下一时刻的位置。
FairMOT模型,用无锚的跟踪方式进行检测,避免了锚框带来的回归歧义问题,提高了卷积提取的表观特征的 准确性,同时以多任务的方式联合训练检测与跟踪任务,同时输出检测部分与目标外观特征提取部分。检测部分包 含:目标中心点、目标框宽高、目标框偏移量;目标外观特征提取部分包含每一个目标的外观特征。为了探索选择 外观信息的维度,FairMOT做了一系列对比实验,发现使用低维度的外观特征更合理,维度太大容易产生过拟合。 这种方式提高了运行速度,但预测的外观特征不够拟合,共享特征部分过多造成检测特征与目标外观特征的紊乱, 在目标发生遮挡时,容易发生跟踪失败。。
上这种算法的检测效果良好,但是还是存在着改正的空间。理由是这些方法对视觉系统的注意机制的认识还不 够完善,只提出在时间维度上增加注意力转移信息,并且图像的多样性以及噪声的干扰,导致只能从初级的特征入 手而没有注意图像语义信息等高级特征的重要性。
综上所述,基于深度学习的多目标跟踪算法大多仅以深度特征进行检测与跟踪检测效果良好,但是还是存在着 改正的空间,如在遮挡状态下跟踪鲁棒性不够;而仅以角点特征进行多目标跟踪,在目标相互遮挡,杂波较多、噪 声较多的复杂场景下仍然可以对目标进行判别与跟踪,但在时间维度上因目标运动使得特征变换导致目标的错检和 漏检等问题使得目标无法进行有效的关联。综合来看,目前缺乏一种深度特征与角点特征可以结合后共同应用于多 目标跟踪方法的框架,既解决目标有效的关联问题,又在遮挡状态下保持跟踪的鲁棒性。
发明内容
本公开提出了一种目标跟踪的方法及装置、电子设备和存储介质技术方案。
根据本公开的一方面,提供了一种目标跟踪的方法,包括:
获取待处理视频图像中多时刻视频帧的多个感兴趣目标对应的位置特征及外观特征;
根据所述多个感兴趣目标对应的位置特征确定所述多个感兴趣目标的第一遮挡关系;并基于所述第一遮挡关 系,对所述多个感兴趣目标的位置特征及外观特征进行特征融合,得到初步的跟踪结果;
基于所述第一遮挡关系及所述初步的跟踪结果确定最终的目标跟踪结果。
优选地,在所述获取待处理视频图像中多时刻视频帧的多个感兴趣目标对应的位置特征及外观特征之前,确定 待处理视频图像中多时刻视频帧的多个感兴趣目标对应的位置特征及外观特征,其确定方法,包括:
获取特征提取模型;
利用所述特征提取模型,对待处理视频图像中多时刻视频帧的多个感兴趣目标进行特征提取,得到多个感兴趣 目标对应的位置特征及外观特征。
优选地,所述利用所述特征提取模型,对待处理视频图像中多时刻视频帧的多个感兴趣目标进行特征提取,得 到多个感兴趣目标对应的位置特征及外观特征的方法,包括:
利用所述特征提取模型,对待处理视频图像中多时刻视频帧的多个感兴趣目标进行特征提取,得到不同尺度的 语义特征及不同尺度的位置特征;
对所述不同尺度的语义特征进行融合得到外观特征,以及对所述不同尺度的位置特征进行融合得到位置特征。
优选地,所述根据所述多个感兴趣目标对应的位置特征确定所述多个感兴趣目标的第一遮挡关系的方法,包括:
计算所述多个感兴趣目标对应的位置特征之间的距离;
若所述多个感兴趣目标对应的位置特征之间的距离小于获取的设定距离,则确定所述多个感兴趣目标存在遮 挡;否则,确定所述多个感兴趣目标不存在遮挡;
以及/或,
所述基于所述第一遮挡关系,对所述多个感兴趣目标的位置特征及外观特征进行特征融合,得到初步的跟踪结 果的方法,包括:
根据所述位置特征计算感兴趣目标的轨迹特征;
若存在第一遮挡关系,则计算所述多个感兴趣目标中的被遮挡的目标及遮挡的目标的匹配点特征;
对所述轨迹特征、所述匹配点特征及外观特征进行特征融合,得到初步的跟踪结果。
优选地,所述对所述轨迹特征、所述匹配点特征及外观特征进行特征融合,得到初步的跟踪结果的方法,包括:
分别计算多个感兴趣目标对应的轨迹特征距离、匹配点特征距离及外观特征距离;
对所述轨迹特征距离、匹配点特征距离及外观特征距离进行轨迹特征距离、匹配点特征距离及外观特征距离进 行特征融合,得到初步的跟踪结果。
优选地,所述对所述轨迹特征距离、匹配点特征距离及外观特征距离进行轨迹特征距离、匹配点特征距离及外 观特征距离进行特征融合,得到初步的跟踪结果的方法,包括:
获取第一设定融合系数、第二设定融合系数及第三设定融合系数;
分别利用所述第一融合系数、第二融合系数及第三融合系数对所述第一融合系数、第二融合系数及第三融合系 数进行加权处理,将加权处理后的轨迹特征距离、匹配点特征距离及外观特征距离进行求和,得到初步的跟踪结果。
优选地,所述基于所述第一遮挡关系及所述初步的跟踪结果确定最终的目标跟踪结果的方法,包括:
确定目前检测的目标是否为原有的所述多个感兴趣目标;
若是,判断目前检测的目标与其余的多个感兴趣目标是否满足所述第一遮挡关系;若满足,根据所述第一遮挡 关系对所述目前检测的目标及其余的多个感兴趣目标进行匹配;若匹配成功,则保持所述目前检测的目标及其余的 目前检测的目标对应的身份;否则,将所述目前检测的目标及其余的目前检测的目标对应的身份进行互换;
若不满足,则根据所述目前检测的目标及其余的所述多个感兴趣目标确定第二遮挡关系;根据所述第二遮挡关 系对所述目前检测的目标及其余的所述多个感兴趣目标进行匹配;若匹配成功,则将匹配成功的感兴趣目标对应的 身份配置给所述目前检测的目标;否则,保持所述目前检测的目标及其余的目前检测的目标对应的身份;
若否,配置所述目前检测的目标对应的身份,以及根据所述目前检测的目标及所述多个感兴趣目标确定第三遮 挡关系;根据所述第三遮挡关系对所述目前检测的目标及所述多个感兴趣目标进行匹配;若匹配成功,则将匹配成 功的感兴趣目标对应的身份配置给所述目前检测的目标;否则,保持所述目前检测的目标及其余的目前检测的目标 对应的身份。
根据本公开的一方面,提供了一种基于所述目标跟踪的方法进行行为检测的方法,,包括:
提取获取的待处理视频图像中多时刻视频帧的跟踪目标对应的关节点信息序列及关节点的运动速度信息序列;
分别对所述关节点信息序列及运动速度信息序列进行空间特征提取,得到对应的第一空间特征及第二空间特 征;并对所述第一空间特征及所述第二空间特征进行特征融合,得到初始融合特征;
基于所述初始融合特征完成行为检测。
根据本公开的一方面,提供了一种目标跟踪的装置,包括:
获取单元,用于获取待处理视频图像中多时刻视频帧的多个感兴趣目标对应的位置特征及外观特征;
确定单元,用于根据所述多个感兴趣目标对应的位置特征确定所述多个感兴趣目标的第一遮挡关系;并基于所 述第一遮挡关系,对所述多个感兴趣目标的位置特征及外观特征进行特征融合,得到初步的跟踪结果;
跟踪单元,用于基于所述第一遮挡关系及所述初步的跟踪结果确定最终的目标跟踪结果。
根据本公开的一方面,提供了一种基于目标跟踪的装置进行行为检测的装置,其特征在于,包括:
提取单元,用于提取获取的待处理视频图像中多时刻视频帧的跟踪目标对应的关节点信息序列及关节点的运动 速度信息序列;
融合单元,用于分别对所述关节点信息序列及运动速度信息序列进行空间特征提取,得到对应的第一空间特征 及第二空间特征;并对所述第一空间特征及所述第二空间特征进行特征融合,得到初始融合特征;
检测单元,用于基于所述初始融合特征完成行为检测。
根据本公开的一方面,提供了一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行上述目标跟踪的方法以及/或上述行为检测的方法。
根据本公开的一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被 处理器执行时实现上述目标跟踪的方法以及/或上述行为检测的方法。
在本公开实施例中,提出了一种目标跟踪的方法及装置、电子设备、计算机可读存储介质,通过基于遮挡关系, 对所述多个感兴趣目标的位置特征及外观特征进行特征融合,得到初步的跟踪结果;基于所述第一遮挡关系及所述 初步的跟踪结果进一步确定最终的目标跟踪结果。以解决基于遮挡关系的多情况跟踪修正模块纠正因遮挡导致的跟 踪失败的问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起 用于说明本公开的技术方案。
图1示出根据本公开实施例的目标跟踪的方法流程图;
图2示出根据本公开实施例的特征提取模型的网络结构示意图;
图3示出根据本公开实施例行为检测的具体实施过程的流程图;
图4示出根据本公开实施例行为检测的跨时空自适应图卷积模块(CS-AGC)的模型结构示意图;
图5示出根据本公开实施例行为检测的跨时空自适应图卷积模块(CS-AGC)的模型中确定的邻接矩阵示意图;
图6是根据一示例性实施例示出的一种电子设备800的框图;
图7是根据一示例性实施例示出的一种电子设备1900的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相 似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释 为优于或好于其它实施例。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以 表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一 种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中 选择的任意一个或多个元素。
另外,为了更好地说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解, 没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未 作详细描述,以便于凸显本公开的主旨。
可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后 的实施例,限于篇幅,本公开不再赘述。
此外,本公开还提供了目标跟踪的装置、电子设备、计算机可读存储介质、程序,上述均可用来实现本公开提 供的任一种目标跟踪的方法,相应技术方案和描述和参见方法部分的相应记载,不再赘述。
图1示出根据本公开实施例的目标跟踪的方法的流程图,如图1所示,所述目标跟踪的方法,包括:步骤S101: 获取待处理视频图像中多时刻视频帧的多个感兴趣目标对应的位置特征及外观特征;步骤S102:根据所述多个感兴 趣目标对应的位置特征确定所述多个感兴趣目标的第一遮挡关系;并基于所述第一遮挡关系,对所述多个感兴趣目 标的位置特征及外观特征进行特征融合,得到初步的跟踪结果;步骤S103:基于所述第一遮挡关系及所述初步的跟 踪结果确定最终的目标跟踪结果。通过基于遮挡关系,对所述多个感兴趣目标的位置特征及外观特征进行特征融合, 得到初步的跟踪结果;基于所述第一遮挡关系及所述初步的跟踪结果进一步确定最终的目标跟踪结果。以解决基于 遮挡关系的多情况跟踪修正模块纠正因遮挡导致的跟踪失败的问题。
步骤S101:获取待处理视频图像中多时刻视频帧的多个感兴趣目标对应的位置特征及外观特征。
在本公开的实施例及其他可能的实施例中,利用摄像机、录像机、摄影机等装置拍摄待处理视频图,其中所述 待处理视频图像中包含多时刻视频帧,每个时刻视频帧可看成一张图像。同时,感兴趣目标可为人或机器人等运动 目标。
在本公开实施例中,在所述获取待处理视频图像中多时刻视频帧的多个感兴趣目标对应的位置特征及外观特征 之前,确定待处理视频图像中多时刻视频帧的多个感兴趣目标对应的位置特征及外观特征,其确定方法,包括:获 取特征提取模型;利用所述特征提取模型,对待处理视频图像中多时刻视频帧的多个感兴趣目标进行特征提取,得 到多个感兴趣目标对应的位置特征及外观特征。
在本公开实施例及其他可能的实施例中,所述特征提取模型可选择CSPNet(CrossStage Partial Networks)网络 对待处理视频图像中多时刻视频帧的多个感兴趣目标进行特征提取,得到多个感兴趣目标对应的位置特征及外观特 征。同样地,本领域技术人员也可以采用其他合适的特征提取模型,完成对待处理视频图像中多时刻视频帧的多个 感兴趣目标进行特征提取。
在本公开实施例中,所述利用所述特征提取模型,对待处理视频图像中多时刻视频帧的多个感兴趣目标进行特 征提取,得到多个感兴趣目标对应的位置特征及外观特征的方法,包括:利用所述特征提取模型,对待处理视频图 像中多时刻视频帧的多个感兴趣目标进行特征提取,得到不同尺度的语义特征及不同尺度的位置特征;对所述不同 尺度的语义特征进行融合得到外观特征,以及对所述不同尺度的位置特征进行融合得到位置特征。其中,外观特征 (表观特征),可区别不同的感兴趣目标,例如不同的人或机器人等运动目标。
在本公开实施例及其他可能的实施例中,所述对所述不同尺度的语义特征进行融合得到外观特征的方法,包括: 对所述不同尺度的语义特征进行相加得到外观特征;以及,所述对所述不同尺度的位置特征进行融合得到位置特征 的方法,包括:对所述不同尺度的位置特征进行相加得到位置特征。
在本公开实施例及其他可能的实施例中,可以利用YOLOv5的CSPNet对待处理视频图像中多时刻视频帧的多个 感兴趣目标进行特征提取,之后利用PANet(PathAggregation Network)对所述不同尺度的语义特征进行融合得到 外观特征,以及对所述不同尺度的位置特征进行融合得到位置特征。
图2示出根据本公开实施例的特征提取模型的网络结构示意图。如图2所示,待处理视频图像中多时刻视频帧经 过切片模型Focus后,切片模型Focus对多时刻视频帧进行切片操作,得到多张切片视频帧。所述多张切片视频帧依 次进行卷积、CSP卷积、卷积及CSP卷积操作,输出第一尺度的语义特征及位置特征;所述第一尺度的语义特征及 位置特征再次依次经过卷积及CSP卷积操作,输出第二尺度的语义特征及位置特征;所述第二尺度的语义特征及位 置特征再次依次经过卷积、池化操作及CSP卷积操作,输出第三尺度的语义特征及位置特征;其中,池化操作可为 池化金字塔模型;第三尺度的语义特征及位置特征再次经过依次卷积及上采样操作,得到第一上采样的语义特征及 位置特征;第一上采样的语义特征及位置特征与第二尺度的语义特征及位置特征进行特征融合,得到第一语义及位置融合特征;其中,所述第一上采样的语义特征及位置特征与第二尺度的语义特征及位置特征进行特征融合的方法, 包括:所述第一上采样的语义特征及位置特征与第二尺度的语义特征及位置特征进行相加;所述第一语义及位置融 合特征依次经过CSP卷积、卷积及上采样得到第二上采样的语义特征及位置特征;所述第二上采样的语义特征及位 置特征与所述第一尺度的语义特征及位置特征进行特征融合,得到第二语义及位置融合特征;其中,所述第二上采 样的语义特征及位置特征与所述第一尺度的语义特征及位置特征进行特征融合的方法,包括:所述第二上采样的语 义特征及位置特征与所述第一尺度的语义特征及位置特征进行特征相加。
如图2所示,所述第二语义及位置融合特征进行CSP卷积后,进一步进行卷积操作,将卷积后的特征与所述第 二上采样的语义特征进行特征融合,得到第三语义及位置融合特征;所述第三语义及位置融合特征依次进行CSP 卷积及卷积后,与经过卷积处理后的第三尺度的语义特征及位置特征进行特征融合(相加),得到第四语义及位置 融合特征;所述第四语义及位置融合特征经过CSP卷积后,与经过CSP卷积后的所述第二语义及位置融合特征进 行融合,得到待处理的位置特征,所述待处理的位置特征分别经过3个×1×1卷积后,得到多个感兴趣目标对应的 位置特征。例如,所述的位置特征,包括:检测框的框大小、偏移量及热力图。其中,所述热力图,用于预测目标 的中心位置,进而根据中心位置进行检测框的标定。位置特征,包括:检测框的坐标及其的置信度;偏移量,用于 预测提取的外观特征与真实的目标对应的中心位置的偏离值(距离),利用偏移量纠正预测目标的中心位置。
如图2所示,所述第三语义及位置融合特征进行CSP卷积及卷积(1个3×3×512卷积以及/或1个1×1×128卷积) 操作后,得到多个感兴趣目标对应的外观特征。
步骤S102:根据所述多个感兴趣目标对应的位置特征确定所述多个感兴趣目标的第一遮挡关系;并基于所述第 一遮挡关系,对所述多个感兴趣目标的位置特征及外观特征进行特征融合,得到初步的跟踪结果。
在本公开实施例中,所述根据所述多个感兴趣目标对应的位置特征确定所述多个感兴趣目标的第一遮挡关系的 方法,包括:计算所述多个感兴趣目标对应的位置特征之间的距离;若所述多个感兴趣目标对应的位置特征之间的 距离小于获取的设定距离,则确定所述多个感兴趣目标存在遮挡;否则,确定所述多个感兴趣目标不存在遮挡。
在本公开实施例及其他可能的实施例中,给出了根据2个感兴趣目标对应的位置特征确定所述2个感兴趣目标的 第一遮挡关系的具体方法,第一目标p与第二目标q之间的距离d小于设定dpq时,可判定即将发生遮挡。
例如,以第一目标p与第二目标q为例,当第一目标p与第二目标q之间的距离d小于dpq时,可判定即将发生遮挡。
其中,与代表第一目标p检测框的宽和高,与代表第二目标q检测框的宽和高,A1和A2分别表示第 一目标p和第二目标q对应检测框的置信度。其中,A1和A2两者取值关系处理后满足:A1+A2=1。在发生部分遮挡 后,当A1<A2,第一目标q为发生遮挡目标,第二目标p为被遮挡目标。A1=A2,第一目标p和第二目标q的置信度相 近。A1>A2,第一目标p为发生遮挡目标(第一目标p遮挡第二目标q,第一目标p为前景目标),第二目标q为被遮挡目标(第二目标q为后景目标)。
在本公开实施例中,所述基于所述第一遮挡关系,对所述多个感兴趣目标的位置特征及外观特征进行特征融合, 得到初步的跟踪结果的方法,包括:根据所述位置特征计算感兴趣目标的轨迹特征;若存在第一遮挡关系,则计算 所述多个感兴趣目标中的被遮挡的目标及遮挡的目标的匹配点特征;对所述轨迹特征、所述匹配点特征及外观特征 进行特征融合,得到初步的跟踪结果。
在本公开实施例及其他可能的实施例中,计算所述多个感兴趣目标中的被遮挡的目标及遮挡的目标的匹配点特 征的方法,包括:获取SIFT算子/算法(Scale InvariantFeature Transform),利用SIFT算子/算法计算所述多个感兴趣 目标中的被遮挡的目标及遮挡的目标的匹配点特征。或,采用KAZE、AKAZE(Accelerated-KAZE)、SURF等算 子或算法计算所述多个感兴趣目标中的被遮挡的目标及遮挡的目标的匹配点特征。
在本公开实施例及其他可能的实施例中,所述根据所述位置特征计算感兴趣目标的轨迹特征的方法,包括:获 取待处理视频图像中多时刻视频帧的多个感兴趣目标对应的位置特征;根据所述多时刻视频帧的多个感兴趣目标对 应的位置特征计算感兴趣目标的轨迹特征。也就是说,感兴趣目标的轨迹特征为多时刻视频帧的多个感兴趣目标对 应的位置特征的集合。
在本公开实施例及其他可能的实施例中,在对所述多个感兴趣目标的位置特征及外观特征进行特征融合,得到 初步的跟踪结果的方法之前,确定所述多个感兴趣目标的状态,其确定方法,包括:计算所述多个感兴趣目标中的 被遮挡的目标及遮挡的目标的匹配点特征之后,将所述多个感兴趣目标配置为具有身份信息的初始状态;经过第一 设定帧后,分别判别多个感兴趣目标是否为遮挡目标,不是被遮挡目标则配置为删除态(删除身份信息);之后, 经过第二设定帧后,被遮挡的目标状态自动转换成可匹配态,并计算被遮挡的目标及遮挡的目标的匹配点特征;最 后,经过第三设定帧后,基于被遮挡的目标及遮挡的目标的匹配点特征确定匹配是否成功,若匹配成功则被遮挡的 目标及/或遮挡的目标配置为已匹配态,未匹配成功则被遮挡的目标及/或遮挡的目标配置为删除态。
在本公开实施例及其他可能的实施例中,匹配点特征可选择角点特征,例如位置特征中的检测框的左上角坐标 以及/或右下角坐标。位置特征,目标左上角坐标以及右下角坐标,在输入图像上提取目标的角点特征。以此种方式 进行角点特征的提取,避免了提取环境中无效特征点,更加关注目标本身的有效特征。
例如,在本公开实施例及其他可能的实施例中,将近邻遮挡的目标(第一目标p及第二目标q)提取角点特征(利 用SIFT角点特征提取算法)后设置为初始状态(确定第一目标p及其的第一角点特征、配置的第一身份,第二目标q 及其的第二角点特征、配置的第二身份);然后,经过t1帧后,判别是否为遮挡目标,不是被遮挡目标则直接置为 删除态;其次,经过t2帧后,被遮挡的目标状态自动转换成可匹配态,进行角点特征的匹配;最后在t3帧内匹配成 功则置为已匹配态,未匹配成功则置为删除态。其中t1、t2、t3为经验参数。对发生遮挡的近邻目标设置多个目标 状态,提高了角点特征提取与匹配模块的运算速度与精度。
在本公开实施例及其他可能的实施例中,所述基于被遮挡的目标及遮挡的目标的匹配点特征确定匹配是否成功 或其他实施例中的匹配点特征确定匹配是否成功的方法,包括:计算匹配点特征的距离;若所述距离小于或等于设 定距离,则确定匹配成功;否则确定匹配失败。其中,设定距离可配置为0.6-0.8,同样地本领域技术人员可根据实 际需要对设定距离进行配置。
例如,假定目标A是被遮挡的目标是处于可匹配态的图像,图像B是被遮挡的目标在设定帧(例如,20帧) 后的整张图像。设定目标A的特征描述子向量为Ui(x1,x2,...x128),图像B的所有目标特征描述子向量为 VBj(y1,y2,...y128),目标A到图像B的特征匹配采用欧式距离作为相似性距离,如公式所示:
式中,xm表示目标A中的特征描述子向量元素;yim表示图像B中第i个目标的特征描述子向量元素; d(Ui,VBq)表示目标A到图像B中第i个目标的距离。
在本公开实施例中,所述对所述轨迹特征、所述匹配点特征及外观特征进行特征融合,得到初步的跟踪结果的 方法,包括:分别计算多个感兴趣目标对应的轨迹特征距离、匹配点特征距离及外观特征距离;对所述轨迹特征距 离、匹配点特征距离及外观特征距离(表观特征距离)进行轨迹特征距离、匹配点特征距离及外观特征距离进行特 征融合,得到初步的跟踪结果。
在本公开实施例及其他可能的实施例中,所述对所述轨迹特征距离、匹配点特征距离及外观特征距离进行轨迹 特征距离、匹配点特征距离及外观特征距离进行特征融合,得到初步的跟踪结果的方法,包括:获取第一设定融合 系数、第二设定融合系数及第三设定融合系数;分别利用所述第一融合系数、第二融合系数及第三融合系数对所述 第一融合系数、第二融合系数及第三融合系数进行加权处理,将加权处理后的轨迹特征距离、匹配点特征距离及外 观特征距离进行求和,得到初步的跟踪结果。
在本公开实施例及其他可能的实施例中,所述对所述轨迹特征距离、匹配点特征距离及外观特征距离进行轨迹 特征距离、匹配点特征距离及外观特征距离进行特征融合,得到初步的跟踪结果的方法,还包括:确定所述外观特 征距离的设定布尔值,将加权处理后的外观特征距离乘以所述设定布尔值,确定是否存在所述外观特征距离;若 存在所述外观特征距离,则对所述轨迹特征距离、匹配点特征距离及外观特征距离进行轨迹特征距离、匹配点特征 距离及外观特征距离进行特征融合,得到初步的跟踪结果;否则,对所述轨迹特征距离及匹配点特征距离进行特征 融合,得到初步的跟踪结果。
例如,所述设定布尔值的配置可为0或1;当所述设定布尔值配置为0时,不存在所述外观特征距离;当所述设 定布尔值配置为1时,则存在所述外观特征距离。
在本公开实施例及其他可能的实施例中,角点特征的匹配度是通过欧式距离计算得出;计算被遮挡的目标对应 的角点特征与被遮挡的目标未来帧的角点特征的欧式距离,得到角点特征的匹配度。以加权多特征融合的方式,根 据目标的深度特征(卷积特征)提取的外观特征、轨迹特征与角点特征三者进行加权融合,得到初步的跟踪结果。 其中,轨迹特征为位置特征的连续特征序列。
在本公开实施例及其他可能的实施例中,根据目标的深度特征提取的外观特征,轨迹特征与角点特征三者进行 加权融合(初步的跟踪结果),计算过程如公式所示,
ci,j=λ1dreid(i,j)+λ2dposition(i,j)+λ3duv*α。
式中,dreid为第i目标与第j目标的表观特征距离,dposition为第i目标与第j目标的轨迹特征距离,duv是跨帧 目标u与跨帧目标v的角点特征描述距离。λ为超参数(第一设定融合系数λ1、第二设定融合系数λ2及第三设定 融合系数λ3),调整度量距离的权重占比为(λ1+λ2+λ3)=1。α为设定布尔值,取值为1或者0,提取角点特征 为1,未提取则为0;ci,j为最终的特征融合结果(初步的跟踪结果)。
在本公开实施例及其他可能的实施例中,所述外观特征距离的确定方法,包括:根据所述表观特征构建行人重 识别的特征矩阵,并根据获取的已确认的跟踪轨迹确定所述行人重识别的特征矩阵的元素;根据当前帧中第i个检 测目标的表观特征与第j个跟踪轨迹的设定帧对应的所述行人重识别的特征矩阵的最小距离确定外观特征距离。
在本公开实施例及其他可能的实施例中,所述根据当前帧中第i个检测目标的表观特征与第j个跟踪轨迹的设 定帧对应的所述行人重识别的特征矩阵的最小距离确定外观特征距离的方法,包括:当前帧中第i个检测目标的表 观特征乘以第j个跟踪轨迹的设定帧对应的所述行人重识别的特征矩阵,得到多个距离向量;将所述多个距离向量 的元素与1做差得到对应的多个差值;取所述多个差值的最小值作为外观特征距离。
例如,dreid表观特征距离判定如下:表观特征用freid来表述,例如,表观特征freid为128维的特征向量。假设 在当前帧中存在N个检测对象(多个感兴趣目标)D(N),其对应的行人重识别ReID的特征矩阵为 FD={freid(1),freid(2),...,freid(n)},以及M个已确认的跟踪轨迹T(M),其中每个已确认关联的跟踪轨迹T(j)保存其 之前设定帧(例如,80帧)的行人重识别ReID的特征向量构成集合的 dreid通过计算当前帧中第i个检测目标的表观特征freid(i)与第j个跟踪轨迹的设定帧(例如,80帧)之间的最小余弦距离来度量表观相似性。
在本公开实施例及其他可能的实施例中,获取多个跟踪轨迹的每个特征;分别计算所述每个特征与当前帧的多 个感兴趣目标的表观特征之间的第一距离,取所述第一距离最小值作为该跟踪轨迹与当前帧的位置特征之间的代价 矩阵;将所述代价矩阵作为预测模型的约束条件,得到轨迹特征距离。
在本公开实施例及其他可能的实施例中,所述将所述代价矩阵作为预测模型的约束条件,得到轨迹特征距离的 方法,包括:获取所述预测模型对应的协方差矩阵、当前帧的目标检测框定位的实际值及跟踪轨迹在当前帧中的预 测值;将所述当前帧的目标检测框定位的实际值及跟踪轨迹在当前帧中的预测值进行做差,得到偏差矩阵;所述偏 差矩阵的转置左乘所述协方差矩阵后,再右乘以所述协方差矩阵,得到轨迹特征距离。
例如,dposition轨迹特征距离判定如下:针对M个跟踪轨迹的每个特征(位置点),分别计算每个特征(位置点) 与当前帧N个检测对象(多个感兴趣目标)的表观特征之间的余弦距离(第一距离),再取得到的余弦距离最小值 作为该跟踪轨迹与当前帧的检测结果(位置特征)之间的计算值(余弦距离),得出余弦代价矩阵costcost(M×N)。
例如,对于M个跟踪轨迹与N个检测结果(位置特征),多特征融合的相似性度量具体实现过程为:首先基 于位置特征计算出余弦代价矩阵cost来进行运动信息约束,即位置度量。将运动信息约束作为卡尔曼滤波器(预测 模型)的约束条件,进而使用卡尔曼滤波器预测目标的未来状态,再采用马氏距离评估卡尔曼滤波预测状态和检测 状态的匹配程度。
式中,是第i个跟踪轨迹由卡尔曼滤波预测得出的协方差矩阵,Tj为跟踪轨迹在当前帧中的预测值Di是当前帧的目标检测框定位的实际值(真实值)(x,y,w,h),其中x、y为前帧的目标实际检测框 的中心点坐标,w为前帧的目标实际检测框的窗宽,h为前帧的目标实际检测框的窗高;其中,为前帧的目标 预测检测框的中心点坐标,为前帧的目标预测检测框的窗宽,为前帧的目标预测检测框的窗高。
duv角点特征距离描述如下:例如,假定目标A是被遮挡的目标是处于可匹配态的图像,图像B是被遮挡的目 标在设定帧(例如,20帧)后的整张图像。设定目标A的特征描述子向量为Ui(x1,x2,...x128),图像B的所有目标 特征描述子向量为VBj(y1,y2,...y128),目标A到图像B的特征匹配采用欧式距离作为相似性距离,如公式所示:
式中,xm表示目标A中的特征描述子向量元素;yim表示图像B中第i个目标的特征描述子向量元素; d(Ui,VBq)表示目标A到图像B中第i个目标的距离。
步骤S103:基于所述第一遮挡关系及所述初步的跟踪结果确定最终的目标跟踪结果。
本公开提出基于遮挡关系的多情况验证算法(方法),依据遮挡关系,首先经过跟踪识别判定,基于遮挡关系 判别是否可能因遮挡导致多目标跟踪失败;然后根据错误情况,结合角点特征匹配模块进行进一步的判别,判别成 功后修复错误关联的外观特征与轨迹特征。
在本公开实施例中,所述基于所述第一遮挡关系及所述初步的跟踪结果确定最终的目标跟踪结果的方法,包括: 确定目前检测的目标是否为原有的所述多个感兴趣目标;若是,判断目前检测的目标与其余的多个感兴趣目标是否 满足所述第一遮挡关系;若满足,根据所述第一遮挡关系对所述目前检测的目标及其余的多个感兴趣目标进行匹配; 若匹配成功,则保持所述目前检测的目标及其余的目前检测的目标对应的身份;否则,将所述目前检测的目标及其 余的目前检测的目标对应的身份进行互换;若不满足,则根据所述目前检测的目标及其余的所述多个感兴趣目标确 定第二遮挡关系;根据所述第二遮挡关系对所述目前检测的目标及其余的所述多个感兴趣目标进行匹配;若匹配成 功,则将匹配成功的感兴趣目标对应的身份配置给所述目前检测的目标;否则,保持所述目前检测的目标及其余的 目前检测的目标对应的身份;若否,配置所述目前检测的目标对应的身份,以及根据所述目前检测的目标及所述多 个感兴趣目标确定第三遮挡关系;根据所述第三遮挡关系对所述目前检测的目标及所述多个感兴趣目标进行匹配; 若匹配成功,则将匹配成功的感兴趣目标对应的身份配置给所述目前检测的目标;否则,保持所述目前检测的目标 及其余的目前检测的目标对应的身份。
例如,多目标跟踪因遮挡导致目标关联失败一般是分为以下几种情况:(1)遮挡后ID互换;例如,目标A遮挡了 目标B,目标A的身份ID与目标B的身份ID互换。(2)遮挡后,将已有目标识别为新目标(最大的身份ID);(3)遮挡后, 出现一个之前的不属于遮挡关系的目标ID(之前已有的身份ID),例如,经过设定时间T,之前的目标重新出现。根 据目标是否因遮挡可能发生了跟踪失败,使用角点特征进行对应跟踪情况验证,验证成功,则修正错误的跟踪结果。
在本公开实施例中,目前检测的目标是原有的所述多个感兴趣目标;判断目前检测的目标与其余的多个感兴趣 目标是否满足所述第一遮挡关系;若满足,根据所述第一遮挡关系对所述目前检测的目标及其余的多个感兴趣目标 进行匹配;若匹配成功,则保持所述目前检测的目标及其余的目前检测的目标对应的身份;否则,将所述目前检测 的目标及其余的目前检测的目标对应的身份进行互换。例如,当目标E再次出现后,根据遮挡关系,分别提取目标A (遮挡方)的角点特征的被遮挡方E的角点特征,基于目标A遮挡方的角点特征的被遮挡方E的角点特征,进行目标 A(遮挡方)的角点特征的被遮挡方E匹配,得到对应的欧式距离;欧式距离小于设定值(例如,设定值可取0.6-0.8), 则认为匹配成功,进而认定为发生了ID互换,将互换的目标身份ID进行修正(强制身份ID进行互换),目标A(遮 挡方)的身份ID与被遮挡方E的身份ID进行互换;匹配失败则认定为未发生身份ID互换。
在本公开实施例中,目前检测的目标不是原有的所述多个感兴趣目标;配置所述目前检测的目标对应的身份, 以及根据所述目前检测的目标及所述多个感兴趣目标确定第三遮挡关系;根据所述第三遮挡关系对所述目前检测的 目标及所述多个感兴趣目标进行匹配;若匹配成功,则将匹配成功的感兴趣目标对应的身份配置给所述目前检测的 目标;否则,保持所述目前检测的目标及其余的目前检测的目标对应的身份。例如,提取新产生目标F的角点特征, 与处于可匹配态的每个目标特征进行匹配,匹配成功则认定为发生了产生新的ID错误,新产生目标F的身份ID与匹 配成功的目标的身份ID进行互换;匹配失败则认定为未发生此类多目标跟踪错误。
在本公开实施例及其他可能的实施例中,目前检测的目标与其余的多个感兴趣目标不满足所述第一遮挡关系, 则根据所述目前检测的目标及其余的所述多个感兴趣目标确定第二遮挡关系;根据所述第二遮挡关系对所述目前检 测的目标及其余的所述多个感兴趣目标进行匹配;若匹配成功,则将匹配成功的感兴趣目标对应的身份配置给所述 目前检测的目标;否则,保持所述目前检测的目标及其余的目前检测的目标对应的身份。
同时,本公开提出近邻目标的特征提取算法提取目标的角点特征、判断发生遮挡目标与被遮挡目标,同时设置 多个目标状态,根据目标状态进行目标角点特征的匹配。具体地说,所述根据所述目前检测的目标及其余的所述多 个感兴趣目标确定第二遮挡关系的方法,包括:获取设定距离;根据所述目前检测的目标及在所述设定距离内的其 余的所述多个感兴趣目标确定第二遮挡关系。其中,在所述获取设定距离之前,确定所述设定距离的方法,包括: 获取目前检测的目标对应的检测框,根据所述检测框确定所述设定距离。例如,根据遮挡关系,目标B不属于目标 A的遮挡关系(目标A与目标B不存在遮挡关系),首先以目标A的检测框宽为半径判别目标A的近邻目标进行迭代, 查看目标B是否属于近邻目标的遮挡关系(即人群密度大情况下,目标B可能被多个目标遮挡);若目标B也不属于近 邻目标的遮挡关系,提取目标B的角点特征,与近邻目标的遮挡关系中处于可匹配态的被遮挡目标的角点特征进行 匹配;匹配成功则认定发生了跟踪失败,修正错误的目标ID,即目标B的身份ID与匹配成功的目标的身份ID进行互 换;匹配失败则认定为未发生此类多目标跟踪错误。
目标跟踪的方法的执行主体可以是目标跟踪的装置,例如,目标跟踪的方法可以由终端设备或服务器或其它处 理设备执行,其中,终端设备可以为用户设备(UserEquipment,UE)、移动设备、用户终端、终端、蜂窝电话、 无绳电话、个人数字处理(PersonalDigital Assistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等。在 一些可能的实现方式中,该目标跟踪的方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
进一步地说,本公开特征提取网络中,本文以无锚的方式进行跟踪,避免锚框带来的回归歧义导致目标框标记 不准确;以CSPNet的特征模块来来设计联合检测网络与外观嵌入模型共享表观特征的网络;以一个特征提取网络 同时输出位置特征与外观特征。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对 实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
同时,本公开还提出了一种目标跟踪的装置,包括:获取单元,用于获取待处理视频图像中多时刻视频帧的多 个感兴趣目标对应的位置特征及外观特征;确定单元,用于根据所述多个感兴趣目标对应的位置特征确定所述多个 感兴趣目标的第一遮挡关系;并基于所述第一遮挡关系,对所述多个感兴趣目标的位置特征及外观特征进行特征融 合,得到初步的跟踪结果;跟踪单元,用于基于所述第一遮挡关系及所述初步的跟踪结果确定最终的目标跟踪结果。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方 法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
本发明的有效性通过以下仿真实验进一步说明:
1.实验数据集和仿真条件。
本实验的卷积特征提取模块是联合检测与跟踪的深度神经网络模型,是一种多任务网络模型架构,同时输出目 标的位置与各个对应目标的外观特征。因此在实验中以多阶段式的训练方法,针对两种不同的任务需求来训练模型。 针对目标检测定位任务,在COCO2017数据集中训练初始化主干网络的模型参数,获取最优的权重,融入到整体的 框架中;然后针对表观特征提取任务,在以下三个包含各种复杂场景的多摄像头行人监控数据:PKU-Reid、 Market-1501和CUHK03数据集,根据行人身份标注训练得出最优的权重,融入到整体的框架中。
在MOT17训练任务中,采用Adam优化器训练,batch-size(每批训练的图片量)设置为8;momentum(动量值) 设置为0.9;learning-rate学习率初始值为0.0001;通过余弦退火策略调整学习率,权重衰减参数为0.005,epoch设置 为50;其中特定目标丢失后保留的帧数max_age等于30;n_init=3即目标连续匹配上三次以上时,tracker跟踪器状态 从unconfirmed变为confirmed;对于行人特征向量进行对比匹配时;设置最大余弦值匹配阈值为0.25;即 max_cosine_distance=3;;多特征融合超参数设置为,,设置每个tracker成功关联后最近保存100帧特征;即 nn_budget=100;对保存的特征向量进行指数加权平均。。
2.视频显著性物体检测性能评价标准。
MOTA衡量了跟踪器在检测目标和保持轨迹时的性能,与目标位置的估计精度无关。MOTP检测框重合度阈值 下正确预测的目标与预测目标总数之比,衡量检测器的定位精度。ID Switches(ID Sw):被跟踪目标身份发生错误 地更改时被称为身份跳变。在对视频序列的跟踪过程当中,IDSw表示所有跟踪目标身份交换的次数。Frames Per Second(FPS):多目标跟踪器的跟踪速度。Mostly Tracked tracklets(MT):在跟踪过程中各个目标至少有80%的视频 帧都能被正确地跟踪的跟踪轨迹数量。ML:在跟踪过程中各个目标至多有20%的视频帧能被正确地跟踪的跟踪轨 迹数量。
表1为本发明方法和其他6个现有的深度学习方法以及传统方法在MOT17的数据集上得到的检测结果(6个对比 方法依次为DeepSORT_2、JDE、CTracker、CenterTrack、TraDes、Fairmot;表中MOTA↑、MT↑、ML↓、IDS↓、 FPS↑分别表示上面所述评价指标。表2为本发明的各个模块同骨干网络对比结果,以评价模块的优越性。
表1
表2
3.实验内容。
实验一
从以上表1可以看出,本发明方法同当前的6种方法对比具有明显的优势,在MOT17多目标跟踪数据集中的每个 指标都达到了可对比的性能。这充分说明了本发明方法的有效性和鲁棒性。以上客观的评价结果定量地说明了本发 明在各种场景下跟踪目标的优势,除了数值结果外也需要通过视觉结果的主观评价。
实验二
从表2中可以看出本专利算法的有效性,为进一步分析所提方法各部分的有效性,在基于卷积特征进行多目标 跟踪数据关联的基础上,设计了消融实验来对算法框架中的各个部分进行对比分析。通过对比,在仅使用本文的深 度特征:表观特征、轨迹特征进行数据关联FPS(运行速度)为29.8,是因为本文使用多任务的方式训练联合检测与跟 踪的网络,并通过跨阶段提取网络搭建特征提取网络使得多目标跟踪速度快,进而对角点-深度加权特征融合进行数 据关联对比MOTA(多目标跟踪精度)值上涨2.3,说明了角点特征对降低误检与漏检的有效性,同时通过角点特征进 行关联提高了MT(轨迹与真实轨迹相交高于80%的数量)4.2%,降低了ML(轨迹与真实轨迹相交低于20%的数 量)4.2%,降低了身份交换和跳变494。进一步应用多情况跟踪验证模块,MOTA值上涨2.3%,虽然使运行速度降低但是身份交换和跳变数目进一步降低至2244,MT上涨至45.0%、ML降低至16.8%,因为多情况跟踪验证模块的使用, 减少了在遮挡状态下,多目标跟踪的错误情况发生的次数,使得各项指标均有提升。综合来看,本文提出的一种联 合角点-深度特征的抗遮挡多目标跟踪方法,充分考虑了角点特征在颜色、纹理、梯度方向的描述与深度提取的运动 特征、和表观特征。首先在卷积特征中:提出以跨阶段局部网络搭建backbone,以多任务的方式训练联合检测与跟 踪网络;然后在角点特征中,提出多状态角点特征提取与匹配方法,其次提出角点-深度加权特征融合算法,最后提 出基于遮挡关系的多情况跟踪验证算法,大幅减少了因遮挡导致的跟踪失败。在MOT17上的综合性能评价指标超过 近年来经典算法,并且兼顾了跟踪的实时性与准确性。
实验三
将模型的多目标跟踪后的结果进行可视化展示后,对比连续的视频序列中多个目标遮挡前、中、后的目标ID, 首先将本文算法与基于中心点跟踪的CenterTrack算法进行可视化对比,经过对遮挡前、中、后目标ID的可视化后, CenterTrack结果显示:在黄色区域内原本为106号ID的目标经过遮挡后,被识别为了2号目标;而本章的算法在遮挡 前后,一直识别为51号跟踪目标。然后将本文算法与链式跟踪的CTracker算法进行可视化对比,经过对遮挡前、中、 后目标ID的可视化后,CTracker的结果显示:38号目标被遮挡后,被识别为了41号目标;而本章的算法在遮挡前后, 一直识别为20号目标。从结果来看本文算法在遮挡环境下,正确率最高,可以得出本文的跟踪算法在人流密集、小 目标、频繁遮挡的情况下准确度较优。
本公开还提出了基于上述目标跟踪的方法进行行为检测的方法,包括:步骤S201:提取获取的待处理视频图像 中多时刻视频帧的跟踪目标对应的关节点信息序列及关节点的运动速度信息序列;步骤S202:分别对所述关节点信 息序列及运动速度信息序列进行空间特征提取,得到对应的第一空间特征及第二空间特征;并对所述第一空间特征 及所述第二空间特征进行特征融合,得到初始融合特征;步骤S203:基于所述初始融合特征完成行为检测。可解决 经多次卷积产生的冗余信息的问题,以实现捕获更长时间的行为时空特征,减小网络计算负担,减少计算资源占用。
在本公开实施例及其他可能的实施例中,所述基于所述初始融合特征完成行为检测的方法,包括:利用获取的 设定滑动时空窗口对所述初始融合特征进行滑动空间卷积操作,得到第一时空图及第一邻接矩阵;并基于所述第一 邻接矩阵对所述初始融合特征进行空间卷积操作,得到第一卷积图;对所述第一时空图及第一卷积图进行融合,得 到行为特征;基于所述行为特征完成行为检测。
图3示出根据本公开实施例行为检测的具体实施过程的流程图。在图3中给,所述行为检测的具体实施过程, 包括:步骤S201-步骤S203。
步骤S201:提取获取的待处理视频图像中多时刻视频帧的跟踪目标对应的关节点信息序列及关节点的运动速度 信息序列。
在本公开的实施例中,所述提取获取的待处理视频图像中多时刻视频帧的跟踪目标对应的关节点信息序列及关 节点的运动速度信息序列的方法,包括:获取待处理的视频图像;提取所述视频图像中多时刻视频帧对应的多个人 体骨架序列;从所述多个人体骨架序列中确定跟踪目标的人体骨架序列,并确定所述跟踪目标的人体骨架序列的关 节点信息序列及关节点的运动速度信息序列。
在本公开的实施例中,所述提取所述视频图像中多时刻视频帧的多个人体骨架序列的方法,包括:获取目标检 测网络;利用所述目标检测网络,对所述视频图像中多个设定目标进行目标检测,得到对应的多个目标检测序列图; 分别对所述多个目标检测序列图进行目标跟踪,得到对应的多个目标跟踪序列图;分别对所述多个目标跟踪序列图 进行关键点提取,得到所述视频图像中多时刻视频帧的多个人体骨架序列。
在本公开的实施例及其他可能的实施例中,所述目标检测网络可为YOLO目标检测网络,例如YOLOv5目标 检测网络;利用YOLO目标检测网络所述视频图像中多个设定目标进行目标检测,得到对应的多个目标检测序列图。 例如,多个设定目标可为人、动物或者机器人等。又例如,所述视频图像具有20帧图像(20张连续的图像),利用 YOLO目标检测网络所述视频图像中多个设定目标进行目标检测,得到20帧图像的目标检测序列图。
在本公开的实施例及其他可能的实施例中,所述分别对所述多个目标跟踪序列图进行关键点提取,得到所述视 频图像中多时刻视频帧的多个人体骨架序列的方法,包括:分别对所述多个目标跟踪序列图中的检测框进行提取, 并调整所述检测框;计算调整后的检测框中的姿态相似度,去除相似度小于设定相似度的冗余检测框,得到所述视 频图像中多时刻视频帧的多个人体骨架序列。
在本公开的实施例及其他可能的实施例中,在所述计算调整后的检测框中的姿态相似度,去除相似度小于设定 相似度的冗余检测框,得到所述视频图像中多时刻视频帧的多个人体骨架序列之前,对所述调整后的多个目标跟踪 序列图进行数据增强,计算数据增强后的检测框中的姿态相似度,去除相似度小于设定相似度的冗余检测框,得到 所述视频图像中多时刻视频帧的多个人体骨架序列。
例如,在图3中,用对称变换网络(Symmetric Spatial Transformer Network,SSTN)分别对所述多个目标跟踪 序列图中的检测框进行提取,并调整所述检测框,自动调整检测框,使得定位更加准确;添加了姿态引导的样本生 成器(Pose-Guided ProposalsGenerator,PGPG)对所述调整后的多个目标跟踪序列图进行数据扩充,进行数据增强; 使用姿态非极大值抑制(Pose NMS)计算检测框中的姿态相似度,去除相似度小于设定相似度的冗余检测框,进 而得到所述视频图像中多时刻视频帧的多个人体骨架序列。
在本公开的实施例及其他可能的实施例中,从所述多个人体骨架序列中确定跟踪目标的人体骨架序列。具体地 说,待处理视频图像中可以可能包括多人,这时需要从多人中选择某一个人或几个人作为跟踪目标,进而确定所述 跟踪目标的人体骨架序列的关节点信息序列及关节点的运动速度信息序列。
在本公开的实施例中,所述并确定所述跟踪目标的人体骨架序列的关节点信息序列及关节点的运动速度信息序 列的方法,包括:对所述跟踪目标的人体骨架序列的关节进行标定,得到多个标定关节点;确定所述跟踪目标的人 体骨架序列中的多个中心点;分别确定多个标定关节点及其对应的中心点确定第一关节点信息序列;分别计算多个 标定关节点与其相邻的标定关节点的角度,得到第二关节点信息序列;其中,所述关节点信息序列,包括:第一关 节点信息序列以及/或第二关节点信息序列;以及,分别计算所述多个标定关节点在t时刻及t+1时刻的相对位移, 得到关节点的运动速度信息序列。
在本公开的实施例及其他可能的实施例中,在所述对所述跟踪目标的人体骨架序列的关节进行标定,得到多个 标定关节点之前,对所述跟踪目标的人体骨架序列进行归一化。
在本公开的实施例及其他可能的实施例中,对所述跟踪目标的人体骨架序列进行归一化,得到归一化的人体骨 架序列其中,R表示实数空间,Cin表示关节点坐标,Tin表示视频图像的帧数目,Vin表示人体骨 架的关节数目。具体地,对所述跟踪目标的人体骨架序列的关节进行标定得到多个标定关节点:可将所有的关节点 作为标定关节点,可以从所有的关节点中选择需要的标定关节点。
在本公开的实施例及其他可能的实施例中,确定所述跟踪目标的人体骨架序列中的多个中心点c;分别确定多 个标定关节点及其对应的中心点确定第一关节点信息序列;所述分别确定多个标定关节点及其对应的中心点确定第 一关节点信息序列的方法,包括:多个标定关节点多分别与其对应的中心点做差,得到第一关节点信息序列。例如, 所述第一关节点信息序列中每一个关节点ri的公式为ri=x[:,:,i]-x[:,:,c],i代表第i关节点。
在本公开的实施例及其他可能的实施例中,所述分别计算多个标定关节点与其相邻的标定关节点的角度,得到 第二关节点信息序列的方法,包括:分别计算多个标定关节点与其相邻的标定关节点的多个骨骼长度;基于所述骨 骼长度得到第二关节点信息序列。例如,相邻关节点骨骼长度li=x[:,:,i]-x[:.,:,iadj],其中,adj为与i相邻的关节点; 某个标定关节点与其相邻的标定关节点的角度αi计算公式为:
其中,li,w=(li,x+li,y+li,z),li,x,li,y,li,z分别为相邻关节点骨骼长度x、y、z三个方向的长度。
在本公开的实施例及其他可能的实施例中,所述关节点信息序列,至少包括:第一关节点信息序列及第二关节 点信息序列的任一关节点信息序列。
在本公开的实施例及其他可能的实施例中,分别计算所述多个标定关节点在t时刻及t+1时刻的相对位移,得 到关节点的运动速度信息序列。具体地说,根据节点i在t时刻和t+1时刻处的相对位移,得到相对运动速度为st, 则相对运动速度st的计算公式为st=x[:,t+1,:]-x[:,t,:]。
步骤S202:分别对所述关节点信息序列及运动速度信息序列进行空间特征提取,得到对应的第一空间特征及第 二空间特征;并对所述第一空间特征及所述第二空间特征进行特征融合,得到初始融合特征。
在本公开的实施例及其他可能的实施例中,所述分别对所述关节点信息序列及运动速度信息序列进行空间特征 提取,得到对应的第一空间特征及第二空间特征的方法,包括:分别获取第一特征提取模型及第二特征提取模型; 利用所述第一特征提取模型对所述关节点信息序列进行特征提取,得到第一空间特征;利用所述第二特征提取模型 对所述运动速度信息序列进行特征提取,得到第二空间特征。其中,所述第一特征提取模型及第二特征提取模型可 以为基于深度学习的神经网络,例如,图3中的图卷积网络GCN。
在公开的实施例中,所述分别对所述关节点信息序列及运动速度信息序列进行空间特征提取,得到对应的第一 空间特征及第二空间特征的方法,包括:利用获取的设定滑动时空窗口对所述关节点信息序列进行滑动空间卷积操 作,得到第二时空图及第二邻接矩阵;并基于所述第二邻接矩阵对所述关节点信息序列进行空间卷积操作,得到第 二卷积图;对所述第二时空图及第二卷积图进行融合,得到第一空间特征;以及,利用获取的设定滑动时空窗口 对所述运动速度信息序列进行滑动空间卷积操作,得到第三时空图及第三邻接矩阵;并基于所述第三邻接矩阵对所 述关节点信息序列进行空间卷积操作,得到第三卷积图;对所述第三时空图及第三卷积图进行融合,得到第二空间 特征。
图4示出根据本公开实施例行为检测的跨时空自适应图卷积模块(CS-AGC)的模型结构示意图,滑动空间卷 积操作是基于本公开提出的跨时空自适应图卷积模块(CS-AGC)进行的。如图3所示,利用图4中的跨时空自适 应图卷积模块(CS-AGC)中的设定滑动时空窗口对所述关节点信息序列进行滑动空间卷积操作的次数n可配置为 2次,2个跨时空自适应图卷积模块(CS-AGC)为串联关系。
另外,在本公开的实施例及其他可能的实施例中,首先利用图卷积网络GCN对所述关节点信息序列进行图卷 积操作,得到关节点图卷积特征;将所述关节点图卷积特征输入跨时空自适应图卷积模块(CS-AGC),所述跨时空 自适应图卷积模块(CS-AGC)中配置的设定滑动时空窗口对所述关节点信息序列进行滑动空间卷积操作,得到第 二时空图及第二邻接矩阵;并基于所述第二邻接矩阵对所述关节点图卷积特征进行空间卷积操作,得到第二卷积图; 之后,对所述第二时空图及第二卷积图进行融合,得到第一空间特征。
另外,在本公开的实施例及其他可能的实施例中,在所述利用图卷积网络GCN对所述关节点信息序列进行图 卷积操作,得到关节点图卷积特征之前,对所述关节点信息序列进行归一化,利用图卷积网络GCN对归一化的关 节点信息序列进行图卷积操作,得到关节点图卷积特征。
如图4所示,在每个跨时空自适应图卷积模块(CS-AGC)内,都包括至少一条自适应图卷积支路(AGCN_SW) 及一条空间图卷积支路,所述自适应图卷积支路(AGCN_SW)对所述关节点图卷积特征或所述关节点信息序列进 行滑动空间卷积操作,得到第二时空图及第二邻接矩阵;基于所述空间图卷积支路,利用所述第二邻接矩阵对图卷 积特征或所述关节点信息序列进行空间卷积操作,得到第二卷积图。
在本公开的实施例及其他可能的实施例中,还包括:通道扩展模块或通道扩展层,在对所述关节点图卷积特征 或所述关节点信息序列进行滑动空间卷积操作之前,利用所述通道扩展模块或通道扩展层对所述关节点图卷积特征 或所述关节点信息序列的通道数进行扩展。其中,所述通道扩展模块或通道扩展层可为图4中的1×1的卷积核(Conv 1×1)。同时,在本公开的实施例及其他可能的实施例中,所述的自适应图卷积支路(AGCN_SW)的数目可配置为 2。
同时,在本公开的实施例及其他可能的实施例中,所述空间图卷积支路,还包括:自适应空间卷积层 Spatial_Graph_A及与其级联的图轻量化时间图卷积模块Temporal_Sep_Layer。利用所述第二邻接矩阵对图卷积特征 或所述关节点信息序列依次通过自适应空间卷积层Spatial_Graph_A及图轻量化时间图卷积模块 Temporal_Sep_Layer进行空间卷积操作,得到第二卷积图。
在本公开的实施例中,所述基于所述第二邻接矩阵对所述关节点信息序列进行空间卷积操作,得到第二卷积图 的方法,包括:分别基于所述关节点信息序列及获取的多个设定嵌入函数,确定对应的多个第一数据关联图;分别 将所述多个第一数据关联图与对应的所述第二邻接矩阵的集合进行融合,得到第一关联融合特征;所述第一关联融 合特征与所述关节点信息序列进行融合,得到第一关联关节点融合特征;所述第一关联关节点融合特征乘以第一设 定权重值,得到第二卷积图。
在本公开的实施例及其他可能的实施例中,所述自适应空间卷积层Spatial_Graph_A内配置有K个分区,每个 分区都包括多个设定嵌入函数。在每个分区中,所述关节点信息序列或所述关节点图卷积特征分别输入所述多个设 定嵌入函数,得到嵌入特征;所述嵌入特征输入回归模型得到对应的多个第一数据关联图Bk;分别将所述多个第 一数据关联图与对应的所述第二邻接矩阵的集合进行融合,得到第一关联融合特征;所述第一关联融合特征与所述 关节点信息序列或所述关节点图卷积特征进行融合,得到第一关联关节点融合特征;所述第一关联关节点融合特征 乘以第一设定权重值,得到每个分区的第二卷积图,将所有分区的第二卷积图作为最终的第二卷积图。
在本公开的实施例及其他可能的实施例中,如图4所示,所述自适应空间卷积层Spatial_Graph_A内配置有3 个分区,每个分区都包括2个设定嵌入函数(第一设定嵌入函数βk及第二设定嵌入函数ψk),在每个分区中,所 述关节点信息序列或所述关节点图卷积特征分别输入第一设定嵌入函数βk及第二设定嵌入函数ψk,得到嵌入特征; 所述嵌入特征输入回归模型得到对应的多个第一数据关联图Bk;分别将所述多个第一数据关联图与对应的所述第 二邻接矩阵的集合Ak进行相加(融合),得到第一关联融合特征;所述第一关联融合特征与所述关节点信息序列或 所述关节点图卷积特征进行相乘(融合),得到第一关联关节点融合特征;所述第一关联关节点融合特征乘以第一 设定权重值,得到每个分区的第二卷积图。其中,回归模型可选择softmax逻辑回归模型。
在本公开的实施例及其他可能的实施例中,其中Ak的物理意义为人体的物理连接结构,Bk为数据关联图;数 据关联图Bk可以经样本学习得到的参数,用于确定两个顶点之间是否存在连接关系以及连接强度。通过计算骨架 图中任意两节点(包括不相邻的节点)间的连接关系,然后获取节点之间的远程依赖,最后根据归一化嵌入高斯函 数计算两节点之间的连接关系,如公式所示:
其中,f′in为给定的输入特征序列两个节点(vi,vj)之间的连接性,N为关节点数量,骨架中的任意两个节 点分别用vi和vj代表,为相似度函数,用来计算当前关注位置的信息vi和全局信息中存在潜在联系的 vj是否存在相似性,之后将矩阵的值进行归一化到[0,1],作为两个关键点的虚拟边。则数据关联图Bk的计算如公 式所示:
因此自适应空间图卷积结构图计算过程可由公式表示。
其中,Wk表示子集的权重参数。
在本公开的实施例中,所述利用获取的设定滑动时空窗口对所述关节点信息序列进行滑动空间卷积操作,得到 第二时空图及第二邻接矩阵的方法,包括:获取设定大小的第一滑动窗口,按照设定第一步长控制所述第一滑动窗 口在所述关节点信息序列上进行滑动,得到第一滑动窗口特征;基于所述第一滑动窗口特征进行空间卷积操作,得 到第二时空图;基于所述第一滑动窗口中某一帧标定的关节点到其他帧相同标定的关节点和设定邻域的连接关系得 到第二邻接矩阵。
在图4中,还详细给出了本公开提出的基于滑动窗口的自适应图卷积(AGCN_SW)的模型结构示意图。如图 4所示,滑动时空窗口的设定大小为t×d,滑动时空窗口的设定步长Stride=2(d1,d2),将所述关节点信息序列 及设定的邻接矩阵A输入自适应图卷积(AGCN_SW)的模型,设定滑动时空窗口对所述关节点信息序列进行滑动 空间卷积操作,得到第二时空图及第二邻接矩阵;并基于所述第二邻接矩阵对所述关节点信息序列进行空间卷积操 作,得到第二卷积图;对所述第二时空图及第二卷积图进行融合,得到第一空间特征。
另外,在本公开的实施例及其他可能的实施例中,首先利用图卷积网络GCN对所述关节点信息序列进行图卷 积操作,得到关节点图卷积特征;将所述关节点图卷积特征输入跨时空自适应图卷积模块(CS-AGC),所述跨时空 自适应图卷积模块(CS-AGC)中配置的设定滑动时空窗口对所述关节点信息序列进行滑动空间卷积操作,得到第 二时空图及第二邻接矩阵;并基于所述第二邻接矩阵对所述关节点信息序列进行空间卷积操作,得到第二卷积图; 对所述第二时空图及第二卷积图进行融合,得到第一空间特征。
在本公开的实施例及其他可能的实施例中,通过滑动时空窗口,将当前帧节点间的空间连接扩展到时间域,实 现当前节点与其他帧中的自身节点及其一阶邻接节点的均存在连接关系。设置大小为的滑动时空窗口,即每个滑 动时空窗口有帧,则滑动窗口每次移动得到的时空图可以表示为其中表示滑动时空窗口 中帧中所有顶点(标定的关节点,例如标定的关节点具有13个,对应的标号依次为1-13)集合的并集,表 示滑动时空窗口帧中所有标定的关节点连接边集合的并集。
图5示出根据本公开实施例行为检测的跨时空自适应图卷积模块(CS-AGC)的模型中确定的邻接矩阵示意图。 定义A′∈[0,1]n×n代表骨骼标定的关节点连接关系,当A′=1表示两个关键点存在连接关系。定义由每个滑动时 空窗口的帧大小为N×N的A′平铺得到的块邻接矩阵,其大小为其中表示某一帧中第i 个标定的关节点到其他帧的相同标定的关节点和1邻域(与第i个标定的关节点相邻关节点)的连接关系。
其中,数值为1表示有连接关系,数值为0表示没有连接关系。由此可得,时空图中,帧的骨架序列中的节点在空间维度上,除了自身节点外,在空间维度上与其一阶邻接节点均存在连接关系,因此经 过该滑动窗口后,维度为C×N×T的特征向量将改变成维度为的特征向量
在本公开的实施例及其他可能的实施例中,邻接矩阵集合其中,为N×N的邻接矩阵 设表示人体骨架的第j个关节vj是否在第i个关节vi的采样区域(默认采样距离为1)的子集中,用 于从输入的fin中提取特定子集中的连通顶点(标定的关节点)。
在本公开的实施例及其他可能的实施例中,利用所述第二邻接矩阵对图卷积特征或所述关节点信息序列依次通 过自适应空间卷积层Spatial_Graph_A及图轻量化时间图卷积模块Temporal_Sep_Layer进行空间卷积操作,得到第 二卷积图,具体包括:将所述自适应空间卷积层得到的第二卷积图进一步进行深度可分离卷积处理,得到最终的第 二卷积图。其中,所述将所述自适应空间卷积层得到的第二卷积图进一步进行深度可分离卷积处理,得到最终的第 二卷积图的方法,包括:对所述自适应空间卷积层得到的第二卷积图进行扩展处理,映射到高维空间特征;对所述 高维空间特征进行逐深度卷积,得到深度卷积特征;对所述深度卷积特征与所述自适应空间卷积层得到的第二卷积 图进行融合操作,得到最终的第二卷积图。其中,在对所述高维空间特征进行逐深度卷积,得到深度卷积特征之前, 对所述高维空间特征进行归一化或正则化(BN)处理。其中,对所述高维空间特征进行逐深度卷积,得到深度卷 积特征之后,还包括:对所述深度卷积特征进行归一化或正则化(BN)处理;归一化或正则化(BN)处理后的深 度卷积特征进行逐点卷积操作,得到最终的逐深度卷积。其中,在所述对所述深度卷积特征与所述自适应空间卷积 层得到的第二卷积图进行融合操作,得到最终的第二卷积图之前,对所述最终的逐深度卷积进行归一化或正则化 (BN)处理。所述的对所述深度卷积特征与所述自适应空间卷积层得到的第二卷积图进行融合操作,得到最终的 第二卷积图的方法,包括:对所述深度卷积特征与所述自适应空间卷积层得到的第二卷积图进行相加操作,得到最 终的第二卷积图。
具体地说,通过1×1的扩展卷积使数据进入深度卷积之前扩展输入特征的通道数,使低维空间映射到高维空间 (高维空间特征),然后通过3×1的逐深度卷积使卷积核每次只处理1个输入特征通道,从而减少计算量,最后使 用1×1的逐点卷积不仅建立通道与通道之间的联系,也调整输出通道数与输入通道数保持一致,通过压缩通道使高 维特征映射到低维空间。同时使用残差连接,将不同的卷积层通过并联的方式结合在一起,防止由于网络深度增加, 导致梯度消失。同时,第一个时间图卷积模块步长可配置为2,目的是为了压缩特征,降低卷积成本。
在本公开的实施例中,所述对所述第一空间特征及所述第二空间特征进行特征融合,得到融合特征的方法,包 括:对所述第一空间特征及所述第二空间特征进行拼接或相加操作,得到融合特征。
在本公开的实施例及其他可能的实施例中,所述关节点信息序列,包括:第一关节点信息序列以及/或第二关节 点信息序列。如所述关节点信息序列,包括:第一关节点信息序列以及第二关节点信息序列,则第一关节点信息序 列以及第二关节点信息序列,分别按照本实施例中所述关节点信息序列的方式进行处理,分别得到2个对应的第一 空间特征;2个的第一空间特征与所述第二空间特征进行特征融合,得到初始融合特征。
在本公开的实施例中,所述对所述第二时空图及第二卷积图进行融合,得到第一空间特征的方法,包括:对所 述第二时空图及第二卷积图进行融合,得到第一关节点融合特征图;所述第一关节点融合特征图与所述关节点信息 序列进行融合,得到第二关节点融合特征图;计算所述第二关节点融合特征图对应的第一注意力权重,根据所述第 二关节点融合特征图及其对应的第一注意力权重得到第一空间特征。
如图4所示,所示对所述第二时空图及第二卷积图进行融合,得到第一关节点融合特征图的方法,包括:对所 述第二时空图及第二卷积图进行相加操作,得到第一关节点融合特征图。在对所述第一关节点融合特征图与所述关 节点信息序列进行融合,得到第二关节点融合特征图之前,利用图轻量化时间图卷积模块Temporal_Sep_Layer进行 卷积操作,之后将得到的特征与所述关节点信息序列进行融合,得到第二关节点融合特征图。利用注意力网络 Attention Layer计算所述第二关节点融合特征图对应的第一注意力权重,根据所述第二关节点融合特征图及其对应 的第一注意力权重得到第一空间特征。具体地说,所述根据所述第二关节点融合特征图及其对应的第一注意力权重 得到第一空间特征的方法,包括:所述第二关节点融合特征图乘以其对应的第一注意力权重得到第一空间特征。
在本公开的实施例中,所述对所述第三时空图及第三卷积图进行融合,得到第二空间特征的方法,包括:对所 述第三时空图及第三卷积图进行融合,得到第一运动速度融合特征图;所述第一运动速度融合特征图与所述运动速 度信息序列进行融合,得到第三运动速度融合特征图;计算所述第二运动速度融合特征图对应的第二注意力权重, 根据所述第二运动速度融合特征图及其对应的第二注意力权重得到第二空间特征。
同理,所述对所述第三时空图及第三卷积图进行融合,得到第二空间特征的方法对应的实施例,可参照上述对 所述第二时空图及第二卷积图进行融合,得到第一空间特征的方法。
在本公开的实施例中,所述利用获取的设定滑动时空窗口对所述运动速度信息序列进行滑动空间卷积操作,得 到第三时空图及第三邻接矩阵的方法,包括:获取设定大小的第二滑动窗口,按照设定第二步长控制所述第二滑动 窗口在所述运动速度信息序列上进行滑动,得到第二滑动窗口特征;基于所述第二滑动窗口特征进行空间卷积操作, 得到第三时空图;基于所述第二滑动窗口中某一帧标定的关节点到其他帧相同标定的关节点和设定邻域的连接关系 得到第三邻接矩阵。
在本公开的实施例中,所述基于所述第三邻接矩阵对所述关节点信息序列进行空间卷积操作,得到第三卷积图 的方法,包括:分别基于所述运动速度信息及获取的多个设定嵌入函数,确定对应的多个第二数据关联图;分别将 所述多个第二数据关联图与对应的所述第三邻接矩阵的集合进行融合,得到第二关联融合特征;所述第二关联融合 特征与所述运动速度信息序列进行融合,得到第二关联运动速度融合特征;所述第二关联运动速度融合特征乘以第 二设定权重值,得到第三卷积图。
同理,如图4所示,滑动时空窗口的设定大小为t×d,滑动时空窗口的设定步长Stride=2,将所 述运动速度信息及设定的邻接矩阵A输入自适应图卷积(AGCN_SW)的模型,设定滑动时空窗口对所述运动 速度信息进行滑动空间卷积操作,得到第二时空图及第二邻接矩阵;对所述第二时空图及第二卷积图进行融合,得 到第一空间特征;并基于所述第三邻接矩阵对所述关节点信息序列进行空间卷积操作,得到第三卷积图;对所述第 三时空图及第三卷积图进行融合,得到第二空间特征。具体可详见上述利用获取的设定滑动时空窗口对所述关节点 信息序列进行滑动空间卷积操作,得到第二时空图及第二邻接矩阵;并基于所述第二邻接矩阵对所述关节点信息序 列进行空间卷积操作,得到第二卷积图;对所述第二时空图及第二卷积图进行融合,得到第一空间特征的具体实施 方式。
步骤S203:基于所述初始融合特征完成行为检测。
在本公开的实施例及其他可能的实施例中,所述基于所述初始融合特征完成行为检测的方法,包括:利用获取 的设定滑动时空窗口对所述初始融合特征进行滑动空间卷积操作,得到第一时空图及第一邻接矩阵;并基于所述第 一邻接矩阵对所述初始融合特征进行空间卷积操作,得到第一卷积图;对所述第一时空图及第一卷积图进行融合, 得到行为特征;基于所述行为特征完成行为检测。
在本公开的实施例中,所述利用获取的设定滑动时空窗口对所述融合特征进行滑动空间卷积操作,得到第一时 空图及第一邻接矩阵的方法,包括:获取设定大小的第三滑动窗口,按照设定第三步长控制所述第三滑动窗口在所 述融合特征上进行滑动,得到第三滑动窗口特征;基于所述第三滑动窗口特征进行空间卷积操作,得到第一时空图; 基于所述第三滑动窗口中某一帧标定的关节点到其他帧相同标定的关节点和设定邻域的连接关系得到第一邻接矩 阵。
同理,所述利用获取的设定滑动时空窗口对所述融合特征进行滑动空间卷积操作,得到第一时空图及第一邻接 矩阵的实施例,可参照上述对利用获取的设定滑动时空窗口对所述关节点信息序列进行滑动空间卷积操作,得到第 二时空图及第二邻接矩阵的方法。
在本公开的实施例中,所述基于所述第一邻接矩阵对所述融合特征进行空间卷积操作,得到第一卷积图的方法, 包括:分别基于所述融合特征及获取的多个设定嵌入函数,确定对应的多个第三数据关联图;分别将所述多个第三 数据关联图与对应的所述第三邻接矩阵的集合进行融合,得到第二关联融合特征;所述第三关联融合特征与所述融 合特征进行融合,得到第三关联运动速度融合特征;所述第三关联运动速度融合特征乘以第三设定权重值,得到第 一卷积图。
同理,所述基于所述第一邻接矩阵对所述融合特征进行空间卷积操作,得到第一卷积图的方法,可参照上述基 于所述第二邻接矩阵对所述关节点信息序列进行空间卷积操作,得到第二卷积图的方法。
在本公开的实施例中,所述对所述第一时空图及第一卷积图进行融合,得到行为特征的方法,包括:对所述第 一时空图及第一卷积图进行融合,得到第一融合特征图;所述第一融合特征图与所述初始融合特征再次进行融合, 得到第二融合特征图;计算所述第二融合特征图对应的第一注意力权重,根据所述第二融合特征图及其对应的第三 注意力权重得到行为特征。
同理,所述对所述第一时空图及第一卷积图进行融合,得到行为特征的方法对应的实施例,可参照上述对所述 第二时空图及第二卷积图进行融合,得到第一空间特征的方法。
在本公开的实施例及其他可能的实施例中,所述对所述第一时空图及第一卷积图进行融合,得到行为特征的方 法,包括:对所述第一时空图及第一卷积图进行拼接或相加操作,得到行为特征。
如图4所示,所示对所述第一时空图及第一卷积图进行融合,得到行为特征的方法,包括:对所述第一时空图 及第一卷积图进行相加操作,得到融合特征图。更为具体的实施方式可详见对所述第二时空图及第二卷积图进行融 合,得到第一关节点融合特征图的方法对应的实施例。
在本公开的实施例及其他可能的实施例中,如图3所示,基于所述行为特征完成行为检测的方法,包括:将所 述行为特征输入设定的全连接层FC,以完成行为检测。在所述行为特征输入设定的全连接层FC之前,还可以对所 述行为特征进行池化Pool操作,将池化操作后的行为特征输入设定的全连接层FC,以完成行为检测。其中,池化 Pool操作的方法可为最大值池化、平均值池化或其他现有的池化操作。
在本公开的实施例及其他可能的实施例中,行为检测中的行为可为挥手、跳跃、握手、打架、喝水等行为的一 种或几种。
同样地,行为检测的方法的执行主体可以是行为检测的装置,例如,行为检测的方法可以由终端设备或服务器 或其它处理设备执行,其中,终端设备可以为用户设备(UserEquipment,UE)、移动设备、用户终端、终端、蜂 窝电话、无绳电话、个人数字处理(PersonalDigital Assistant,PDA)、手持设备、计算设备、车载设备、可穿戴设 备等。在一些可能的实现方式中,该行为检测的方法可以通过处理器调用存储器中存储的计算机可读指令的方式来 实现。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对 实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
本公开还提出了基于所述目标跟踪的装置进行行为检测的装置,其特征在于,包括:提取单元,用于提取获取 的待处理视频图像中多时刻视频帧的跟踪目标对应的关节点信息序列及关节点的运动速度信息序列;融合单元,用 于分别对所述关节点信息序列及运动速度信息序列进行空间特征提取,得到对应的第一空间特征及第二空间特征; 并对所述第一空间特征及所述第二空间特征进行特征融合,得到初始融合特征;检测单元,基于所述初始融合特征 完成行为检测。具体地说,检测单元,用于利用获取的设定滑动时空窗口对所述初始融合特征进行滑动空间卷积操 作,得到第一时空图及第一邻接矩阵;并基于所述第一邻接矩阵对所述初始融合特征进行空间卷积操作,得到第一 卷积图;对所述第一时空图及第一卷积图进行融合,得到行为特征;基于所述行为特征完成行为检测。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方 法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
本公开实施例还提出一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执 行时实现上述目标跟踪的方法以及/或上述的行为检测的方法。计算机可读存储介质可以是非易失性计算机可读存 储介质。
本公开实施例还提出一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器 被配置为上述目标跟踪的方法以及/或上述的行为检测的方法。其中,电子设备可以被提供为终端、服务器或其它 形态的设备。
图6是根据一示例性实施例示出的一种电子设备800的框图。例如,电子设备800可以是移动电话,计算机,数 字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等终端。
参照图6,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件 808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关 联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外, 处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多 媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在电子设备800的操作。这些数据的示例包括用于在电子设备 800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何 类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读 存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM), 磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及 其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包 括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的 输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅 感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体 组件808包括一个前置摄像头和/或后置摄像头。当电子设备800处于操作模式,如拍摄模式或视频模式时,前置摄 像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统 或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800 处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号 可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于 输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。 这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814 可以检测到电子设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传 感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存 在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在 没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器, 用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器, 压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通 信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来 自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC) 模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带 (UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数 字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器 或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上 述计算机程序指令可由电子设备800的处理器820执行以完成上述方法。
图7是根据一示例性实施例示出的一种电子设备1900的框图。例如,电子设备1900可以被提供为一服务器。参 照图7,电子设备1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资 源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个 以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
电子设备1900还可以包括一个电源组件1926被配置为执行电子设备1900的电源管理,一个有线或无线网络接口 1950被配置为将电子设备1900连接到网络,和一个输入输出(I/O)接口1958。电子设备1900可以操作基于存储在 存储器1932的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上 述计算机程序指令可由电子设备1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用 于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如 可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意 合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储 器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有 指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时 信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电 缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例 如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、 无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络 接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机 可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、 微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语 言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程 语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包 执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机 的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者, 可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读 程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵 列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个 方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指 令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产 出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框 图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质 中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读 介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它 可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编 程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架 构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、 程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中 所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们 有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框 图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用 硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。 在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而 易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中技术的技术改进,或者使 本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (10)
1.一种目标跟踪的方法,其特征在于,包括:
获取待处理视频图像中多时刻视频帧的多个感兴趣目标对应的位置特征及外观特征;
根据所述多个感兴趣目标对应的位置特征确定所述多个感兴趣目标的第一遮挡关系;并基于所述第一遮挡关系,对所述多个感兴趣目标的位置特征及外观特征进行特征融合,得到初步的跟踪结果;
基于所述第一遮挡关系及所述初步的跟踪结果确定最终的目标跟踪结果。
2.根据权利要求1所述的方法,其特征在于,在所述获取待处理视频图像中多时刻视频帧的多个感兴趣目标对应的位置特征及外观特征之前,确定待处理视频图像中多时刻视频帧的多个感兴趣目标对应的位置特征及外观特征,其确定方法,包括:
获取特征提取模型;
利用所述特征提取模型,对待处理视频图像中多时刻视频帧的多个感兴趣目标进行特征提取,得到多个感兴趣目标对应的位置特征及外观特征。
3.根据权利要求2所述的方法,其特征在于,所述利用所述特征提取模型,对待处理视频图像中多时刻视频帧的多个感兴趣目标进行特征提取,得到多个感兴趣目标对应的位置特征及外观特征的方法,包括:
利用所述特征提取模型,对待处理视频图像中多时刻视频帧的多个感兴趣目标进行特征提取,得到不同尺度的语义特征及不同尺度的位置特征;
对所述不同尺度的语义特征进行融合得到外观特征,以及对所述不同尺度的位置特征进行融合得到位置特征。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述根据所述多个感兴趣目标对应的位置特征确定所述多个感兴趣目标的第一遮挡关系的方法,包括:
计算所述多个感兴趣目标对应的位置特征之间的距离;
若所述多个感兴趣目标对应的位置特征之间的距离小于获取的设定距离,则确定所述多个感兴趣目标存在遮挡;否则,确定所述多个感兴趣目标不存在遮挡;
以及/或,
所述基于所述第一遮挡关系,对所述多个感兴趣目标的位置特征及外观特征进行特征融合,得到初步的跟踪结果的方法,包括:
根据所述位置特征计算感兴趣目标的轨迹特征;
若存在第一遮挡关系,则计算所述多个感兴趣目标中的被遮挡的目标及遮挡的目标的匹配点特征;
对所述轨迹特征、所述匹配点特征及外观特征进行特征融合,得到初步的跟踪结果。
5.根据权利要求4所述的方法,其特征在于,所述对所述轨迹特征、所述匹配点特征及外观特征进行特征融合,得到初步的跟踪结果的方法,包括:
分别计算多个感兴趣目标对应的轨迹特征距离、匹配点特征距离及外观特征距离;
对所述轨迹特征距离、匹配点特征距离及外观特征距离进行轨迹特征距离、匹配点特征距离及外观特征距离进行特征融合,得到初步的跟踪结果。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述基于所述第一遮挡关系及所述初步的跟踪结果确定最终的目标跟踪结果的方法,包括:
确定目前检测的目标是否为原有的所述多个感兴趣目标;
若是,判断目前检测的目标与其余的多个感兴趣目标是否满足所述第一遮挡关系;若满足,根据所述第一遮挡关系对所述目前检测的目标及其余的多个感兴趣目标进行匹配;若匹配成功,则保持所述目前检测的目标及其余的目前检测的目标对应的身份;否则,将所述目前检测的目标及其余的目前检测的目标对应的身份进行互换;
若不满足,则根据所述目前检测的目标及其余的所述多个感兴趣目标确定第二遮挡关系;根据所述第二遮挡关系对所述目前检测的目标及其余的所述多个感兴趣目标进行匹配;若匹配成功,则将匹配成功的感兴趣目标对应的身份配置给所述目前检测的目标;否则,保持所述目前检测的目标及其余的目前检测的目标对应的身份;
若否,配置所述目前检测的目标对应的身份,以及根据所述目前检测的目标及所述多个感兴趣目标确定第三遮挡关系;根据所述第三遮挡关系对所述目前检测的目标及所述多个感兴趣目标进行匹配;若匹配成功,则将匹配成功的感兴趣目标对应的身份配置给所述目前检测的目标;否则,保持所述目前检测的目标及其余的目前检测的目标对应的身份。
7.一种基于权利要求1-5任一项所述目标跟踪的方法进行行为检测的方法,其特征在于,包括:
提取获取的待处理视频图像中多时刻视频帧的跟踪目标对应的关节点信息序列及关节点的运动速度信息序列;
分别对所述关节点信息序列及运动速度信息序列进行空间特征提取,得到对应的第一空间特征及第二空间特征;并对所述第一空间特征及所述第二空间特征进行特征融合,得到初始融合特征;
基于所述初始融合特征完成行为检测。
8.一种目标跟踪的装置,其特征在于,包括:
获取单元,用于获取待处理视频图像中多时刻视频帧的多个感兴趣目标对应的位置特征及外观特征;
确定单元,用于根据所述多个感兴趣目标对应的位置特征确定所述多个感兴趣目标的第一遮挡关系;并基于所述第一遮挡关系,对所述多个感兴趣目标的位置特征及外观特征进行特征融合,得到初步的跟踪结果;
跟踪单元,用于基于所述第一遮挡关系及所述初步的跟踪结果确定最终的目标跟踪结果。
9.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行权利要求1至5中任意一项所述目标跟踪的方法以及/或权利要求7所述的行为检测的方法。
10.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至5中任意一项所述目标跟踪的方法以及/或权利要求7所述的行为检测的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210629461.XA CN115035158B (zh) | 2022-06-05 | 2022-06-05 | 目标跟踪的方法及装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210629461.XA CN115035158B (zh) | 2022-06-05 | 2022-06-05 | 目标跟踪的方法及装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115035158A true CN115035158A (zh) | 2022-09-09 |
CN115035158B CN115035158B (zh) | 2023-11-17 |
Family
ID=83122696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210629461.XA Active CN115035158B (zh) | 2022-06-05 | 2022-06-05 | 目标跟踪的方法及装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115035158B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115798055A (zh) * | 2023-02-10 | 2023-03-14 | 四川大学 | 一种基于cornersort跟踪算法的暴力行为检测方法 |
CN115877328A (zh) * | 2023-03-06 | 2023-03-31 | 成都鹰谷米特科技有限公司 | 一种阵列雷达的信号收发方法及阵列雷达 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110490901A (zh) * | 2019-07-15 | 2019-11-22 | 武汉大学 | 抗姿态变化的行人检测跟踪方法 |
KR20200061118A (ko) * | 2018-11-23 | 2020-06-02 | 인하대학교 산학협력단 | 영상 내 다중 객체 추적 방법 및 시스템 |
US20200364882A1 (en) * | 2019-01-17 | 2020-11-19 | Beijing Sensetime Technology Development Co., Ltd. | Method and apparatuses for target tracking, and storage medium |
CN112288775A (zh) * | 2020-10-23 | 2021-01-29 | 武汉大学 | 一种基于长短期预测模型的多目标遮挡跟踪方法 |
CN113724289A (zh) * | 2021-07-21 | 2021-11-30 | 山东师范大学 | 视频图像多目标跟踪方法、系统、存储介质及设备 |
CN113807187A (zh) * | 2021-08-20 | 2021-12-17 | 北京工业大学 | 基于注意力特征融合的无人机视频多目标跟踪方法 |
-
2022
- 2022-06-05 CN CN202210629461.XA patent/CN115035158B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200061118A (ko) * | 2018-11-23 | 2020-06-02 | 인하대학교 산학협력단 | 영상 내 다중 객체 추적 방법 및 시스템 |
US20200364882A1 (en) * | 2019-01-17 | 2020-11-19 | Beijing Sensetime Technology Development Co., Ltd. | Method and apparatuses for target tracking, and storage medium |
CN110490901A (zh) * | 2019-07-15 | 2019-11-22 | 武汉大学 | 抗姿态变化的行人检测跟踪方法 |
CN112288775A (zh) * | 2020-10-23 | 2021-01-29 | 武汉大学 | 一种基于长短期预测模型的多目标遮挡跟踪方法 |
CN113724289A (zh) * | 2021-07-21 | 2021-11-30 | 山东师范大学 | 视频图像多目标跟踪方法、系统、存储介质及设备 |
CN113807187A (zh) * | 2021-08-20 | 2021-12-17 | 北京工业大学 | 基于注意力特征融合的无人机视频多目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
OHAY ANGAH ET AL.: "Tracking multiple construction workers through deep learning and the gradient based method with re-matching based on multi-object tracking accuracy", 《AUTOMATION IN CONSTRUCTION》, vol. 119, pages 1 - 9 * |
田枫等: "1 种基于视频的油田危险区域入侵检测智能综合识别技术研究", 《中国安全生产科学技术》, vol. 18, no. 3, pages 68 - 75 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115798055A (zh) * | 2023-02-10 | 2023-03-14 | 四川大学 | 一种基于cornersort跟踪算法的暴力行为检测方法 |
CN115798055B (zh) * | 2023-02-10 | 2023-04-28 | 四川大学 | 一种基于cornersort跟踪算法的暴力行为检测方法 |
CN115877328A (zh) * | 2023-03-06 | 2023-03-31 | 成都鹰谷米特科技有限公司 | 一种阵列雷达的信号收发方法及阵列雷达 |
Also Published As
Publication number | Publication date |
---|---|
CN115035158B (zh) | 2023-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112714896B (zh) | 自知视觉-文本共接地导航代理 | |
Ko et al. | Deep convolutional framework for abnormal behavior detection in a smart surveillance system | |
CN111340766B (zh) | 目标对象的检测方法、装置、设备和存储介质 | |
CN107545582B (zh) | 基于模糊逻辑的视频多目标跟踪方法及装置 | |
Olmos et al. | A binocular image fusion approach for minimizing false positives in handgun detection with deep learning | |
CN110998594A (zh) | 检测动作的方法和系统 | |
CN111062263B (zh) | 手部姿态估计的方法、设备、计算机设备和存储介质 | |
CN110782483A (zh) | 基于分布式相机网络的多视图多目标跟踪方法及系统 | |
Karavasilis et al. | Visual tracking using the Earth Mover's Distance between Gaussian mixtures and Kalman filtering | |
CN115035158B (zh) | 目标跟踪的方法及装置、电子设备和存储介质 | |
CN112767329A (zh) | 图像处理方法及装置、电子设备 | |
CN112541928A (zh) | 网络训练方法及装置、图像分割方法及装置和电子设备 | |
JP2009015827A (ja) | 物体追跡方法、物体追跡システム、及び物体追跡プログラム | |
Erdem et al. | Visual tracking by fusing multiple cues with context-sensitive reliabilities | |
KR20190023389A (ko) | 변화점 검출을 활용한 다중클래스 다중물체 추적 방법 | |
Ali et al. | Multiple object tracking with partial occlusion handling using salient feature points | |
CN112906484B (zh) | 一种视频帧处理方法及装置、电子设备和存储介质 | |
Riahi et al. | Online multi-object tracking by detection based on generative appearance models | |
Zhou et al. | Adaptive fusion of particle filtering and spatio-temporal motion energy for human tracking | |
Hassan et al. | An adaptive sample count particle filter | |
WO2023168957A1 (zh) | 姿态确定方法、装置、电子设备、存储介质及程序 | |
Ait Abdelali et al. | An adaptive object tracking using Kalman filter and probability product kernel | |
Kadim et al. | Deep-learning based single object tracker for night surveillance. | |
CN115620054A (zh) | 一种缺陷分类方法、装置、电子设备及存储介质 | |
CN114612545A (zh) | 图像分析方法及相关模型的训练方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |