CN110163890A - 一种面向空基监视的多目标跟踪方法 - Google Patents
一种面向空基监视的多目标跟踪方法 Download PDFInfo
- Publication number
- CN110163890A CN110163890A CN201910331239.XA CN201910331239A CN110163890A CN 110163890 A CN110163890 A CN 110163890A CN 201910331239 A CN201910331239 A CN 201910331239A CN 110163890 A CN110163890 A CN 110163890A
- Authority
- CN
- China
- Prior art keywords
- suspected
- target
- feature vector
- frame
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种面向空基监视的多目标跟踪方法,属于航空监视领域。首先获取待检测场景图中所有疑似目标的位置坐标信息。对某个疑似目标使用基于外表信息的特征提取网络和运动信息的特征提取网络进行提取后融合,同理针对每帧图像中的所有疑似目标,分别计算融合了外表和运动信息的特征向量。将上一帧和当前帧中每个疑似目标,两两遍历,得到每两个疑似目标之间的相似度,并以疑似目标作为点,相似度作为边上的权重构建图卷积神经网络,将当前帧中每个点通过权重对该点传播相连边的另一点的特征向量并更新,重新计算每两个疑似目标的特征相似度,保证两帧之间多目标一对一匹配。本发明能高效传播目标特征向量,易于构建和训练。
Description
技术领域
本发明属于航空监视领域,具体是一种面向空基监视的多目标跟踪方法。
背景技术
近年来,随着国家对低空领域使用权限的不断开放,空基监视平台中的各种技术及任务发展迅速;如辅助安防管理、特殊场景监视等。安全监测、安防管理、情报收集分析、铁轨异常行人或异物跟踪检测等应用在铁轨监视任务中,无人机可以在空基视角下对铁轨上的异常行人或异物进行系统地监视,确保铁路运输的安全性和高效性。而在这些任务中,对于复杂场景下的多目标跟踪的统计与分析是其中最为重要的环节之一,在很多场景尤其是人群密集或铁轨上存在异常行人或运动异物的场景下,统计场景中运动物体轨迹信息对于安全监测、突发情况预警以及情报分析等多类任务均有不可估量的作用。
在大多数需要进行多目标跟踪的场景下,物体的密集度较高,运动不规律,存在遮挡、消失和形变等情况。早期的方法一般使用逐个目标的分别跟踪。但由于存在同一物体运动形变、遮挡和运动规律差异性较大,而基于以上方法的多目标跟踪算法无法准确地在多物体跟踪的情况下完成准确的一对一匹配。
近年来,将外表信息和运动信息相结合的方法运用到物体跟踪上取得了不错的效果。同时,图卷积神经网络在非欧几里德空间上的运算和信息传播以及在图结构信息的分析上也有了突破性进展;将以上两种方法相结合以完成多个目标的准确跟踪是大势所趋。
对多物体进行跟踪的方法很多。近年来效果较好的大部分为基于单个目标特征提取并跟踪的方法,使用复杂的特征提取网络完成对每个目标的逐一跟踪,在一定程度上解决了多目标跟踪问题中最为棘手的逐帧匹配问题。但此类方法无法保证两帧之间的目标一对一匹配,同时不允许两帧所有匹配结果的信息传播,进而无法实现多目标跟踪的匹配最优解,在一定程度上限制了其效果。
发明内容
本发明提供一种面向空基监视的多目标跟踪方法,使用基于外表特征和运动特征的特征提取网络,并构建图卷积神经网络,在特征充分提取的基础之上完成两视频帧之间的跟踪目标特征充分交互,充分利用相关信息,实现效果卓越的空基视角下的多目标跟踪;有效确保了所有跟踪目标的一对一匹配跟踪,跟踪性能鲁棒,可适应跟踪物体的形变和遮挡等问题,为后续的安全监测、安防监控及情报分析等应用带来了极大的便利。
具体步骤如下:
步骤一、获取待检测场景图并对其进行初步处理,使用通用检测器完成场景中所有疑似目标的检测,得到所有疑似目标的检测框的位置坐标信息。
步骤二、针对某视频帧图像,对该帧图像中的某个疑似目标,使用基于外表信息的特征提取网络和运动信息的特征提取网络进行处理,分别获得疑似目标的外表特征向量和运动特征向量。
基于外表信息的特征提取网络采用卷积神经网络,通过卷积核的空间卷积操作及池化层、卷积层的多层堆叠,实现图像从冗余特征到精细特征的过度,以及从像素信息到语义信息的转换,实现强有力的目标图像的空间特征提取。
基于运动信息的特征提取采用长短记忆循环神经网络,将疑似目标的检测框中心点坐标作为输入,通过五个长短期记忆循环神经网络单元融合目标前五帧的坐标信息,完成跨时域的信息结合和分析,从而输出目标的运动信息。
步骤三、对外表特征向量和运动特征向量使用多源信息集成模块进行特征获取和融合,得到该疑似目标的结合了外表和运动信息的特征向量。
即,
其中Fi为融合后该帧中第i个疑似目标的特征向量,Ai为第i个疑似目标的外表特征向量,Mi为第i个疑似目标的运动特征向量,为融合外表和运动特征向量的核函数。
步骤四、针对待检测场景图的每帧图像中出现的所有疑似目标,分别计算各疑似目标的结合了外表和运动信息的特征向量。
步骤五、从上一帧和当前帧中各选择一个疑似目标,根据各自的结合了外表和运动信息的特征向量,计算两个疑似目标的相似度并归一化。
归一化相似度计算公式如下:
其中sij为输出的当前帧中第i个疑似目标和前一帧图像中第j个疑似目标的归一化相似度,Fi为当前帧中第i个疑似目标的结合了外表和运动信息的特征向量;Fj为前一帧中第j个疑似目标结合了外表和运动信息的特征向量,为计算归一化相似度的核函数。
步骤六、将上一帧和当前帧中每个疑似目标,两两遍历,得到每两个疑似目标之间的相似度。
步骤七、将上一帧和当前帧中所有疑似目标作为点,两疑似目标之间的相似度作为两点间边的权重,构建图卷积神经网络;
同一帧图像中的疑似目标点之间的权重为0。
步骤八、针对当前帧中的某点,通过权重对该点传播相连边的另一点的特征向量,将当前帧中每个点都完成特征向量的传播进行更新。
更新公式如下:
F′I=ρ(SFJWθ)
F′J=ρ(STFIWθ)
s′ij=MLPθ(Fi,Fj)
其中,FI为当前帧所有疑似目标的结合了外表和运动信息的特征向量组成的矩阵;FJ为前一帧所有疑似目标的结合了外表和运动信息的特征向量组成的矩阵,F′I为更新后的当前帧所有疑似目标的结合了外表和运动信息的特征向量组成的矩阵;F′J为更新后的前一帧所有疑似目标的结合了外表和运动信息的特征向量组成的矩阵;ρ(·)为非线性层,S为更新后两帧中所有疑似目标的相似度组成的矩阵,Wθ为可学习参数矩阵,MLPθ(·)为可学习多层感知机,s′ij为更新后当前帧中第i个疑似目标和前一帧图像中第j个疑似目标的归一化的相似度。
步骤九、将上一帧和当前帧中的所有疑似目标点,利用更新的特征向量再次重新计算每两个疑似目标的特征相似度,从而通过监督学习保证了两帧之间多目标的一对一匹配。
上一帧中有m个疑似目标,当前帧中有n个疑似目标,则共计算m*n次来评估两帧中所有疑似目标两两之间的相似度;当某特征相似度的值达到预先设定的阈值后,则该特征相似度对应的两个疑似目标为一对一匹配。
本发明的优点在于:
1)、一种面向空基监视的多目标跟踪方法,图卷积神经网络可以让单一目标感知所有潜在匹配目标的特征,在所有目标中选择最相似的目标完成匹配;图卷积神经网络可以高效传播目标特征向量,易于构建和训练。
2)、一种面向空基监视的多目标跟踪方法,整个网络框架,即相似度计算网络和图卷积神经网络,可以在统一框架下完成端到端监督训练,并让所有模块同时优化,取得鲁棒高效的跟踪结果。
附图说明
图1为本发明一种面向空基监视的多目标跟踪方法的流程图;
图2为本发明外表信息的特征提取网络和运动信息的特征提取网络的结构图。
图3为本发明从上一帧和当前帧中各选择一个疑似目标计算相似度的结构图。
图4为本发明构建的图卷积神经网络的结构图。
具体实施方式
为了使本发明能够更加清楚地理解其技术原理,下面结合附图具体、详细地阐述本发明实施例。
本发明提供了一种面向空基监视的多目标跟踪方法,在空基监视平台下对一定范围内场景中多疑似目标做检测并跟踪目标位置,对在空基监视下的各项应用具有重大意义。本方法在特征提取网络的基础上构建图卷积神经网络,对检测目标特征进行特征传播和相似度关系更新,进而完成对图像中多目标信息及特征的提取与信息传递,最后实现对多个目标的分别识别和准确跟踪,得到复杂场景下各目标的检测框坐标及目标编号。该方法跟踪性能鲁棒,跟踪效果显著。
如图1所示,具体步骤如下:
步骤一、获取待检测场景图并对其进行初步处理,使用通用检测器完成场景中所有疑似目标的无差别初步检测,得到所有疑似目标的检测框的位置坐标信息。
步骤二、针对某视频帧图像,对该帧图像中的某个疑似目标,使用基于外表信息的特征提取网络和运动信息的特征提取网络进行处理,分别获得疑似目标的外表特征向量和运动特征向量。
如图2所示,在目标跟踪中,移动的目标具有外表信息和运动信息等多方面的信息特征,为实现目标的快速准确跟踪,对目标的具有分别性的特征提取至关重要。如何提取运动物体的多源信息并加以结合,实习特征的有效性至关重要。目前主流的方法有采用外表信息或者运动信息来识别运动物体的,但均存在信息利用不完善,特征提取鲁棒性较弱等缺陷。
本方法中的特征提取网络采用外表特征提取网络和运动信息提取网络相互结合的方法,以实现对运动目标的全部信息充分提取的目的,也是下一步完成多目标之间相似性计算的重要前提。
基于外表信息的特征提取网络采用卷积神经网络,卷积神经网络中间三层卷积层和两层池化层和一层全连接层组成。通过卷积核的空间卷积操作及池化层、卷积层的多层堆叠,实现图像从冗余特征到精细特征的过度,以及从像素信息到语义信息的转换,实现强有力的目标图像的空间特征提取。
基于运动信息的特征提取采用长短记忆循环神经网络,将疑似目标的检测框中心点坐标作为输入,通过五个长短期记忆循环神经网络单元融合目标前五帧的坐标信息,完成跨时域的信息结合和分析,从而输出目标的运动信息。
长短期记忆循环神经网络可以有效地让前一帧的运动信息影响下一帧的信息提取和分析,从而实现时域上的对物体运动信息的分析和捕捉。
步骤三、对外表特征向量和运动特征向量使用多源信息集成模块进行特征获取和融合,得到该疑似目标的结合了外表和运动信息的特征向量。
即,
其中Fi为融合后该帧中第i个疑似目标的特征向量,Ai为第i个疑似目标的外表特征向量,Mi为第i个疑似目标的运动特征向量,为融合外表和运动特征向量的核函数。
步骤四、针对待检测场景图的每帧图像中出现的所有疑似目标,分别计算各疑似目标的结合了外表和运动信息的特征向量。
步骤五、从上一帧和当前帧中各选择一个疑似目标,根据各自的结合了外表和运动信息的特征向量,计算两个疑似目标的相似度并归一化。
遍历当前帧和上一帧跟踪结果所有目标的特征,计算每一个当前帧检测目标和上一帧跟踪目标的特征相似度评估,将两帧之间的各疑似目标的结合了外表信息和运动信息的特征向量,两两做比对计算其相似度,归一化相似度计算公式如下:
其中sij为输出的当前帧中第i个疑似目标和前一帧图像中第j个疑似目标的归一化相似度,Fi为当前帧中第i个疑似目标的结合了外表和运动信息的特征向量;Fj为前一帧中第j个疑似目标结合了外表和运动信息的特征向量,为计算归一化相似度的核函数。
如图3所示,将两物体的待评估的特征向量在维度上进行拼接后乘以多层可学习的权重矩阵,并接上非线性层相似度归一化完成拟合,输出两特征向量在0到1之间的相似度估值,该相似度估值表征两特征向量的相似程度,及当前帧检测物体与上一帧跟踪目标的相似程度;输出越接近0即为目标越不相似,越接近1即为目标越相似。
该相似度计算模块可通过监督学习完成参数更新,以此实现整个模型端到端训练。通过监督训练及权重的更新,可使该学习单元快速准确地输出两向量之间的相似程度,是下一步完成信息传递交互的基础和前提。
步骤六、将上一帧和当前帧中每个疑似目标,两两遍历,得到每两个疑似目标之间的相似度。
步骤七、将上一帧和当前帧中所有疑似目标的特征向量作为点,两疑似目标之间的相似度作为两点间边的权重,构建带有权重的图卷积神经网络;
图卷积神经网络是二步图结构,在此基础上应用图卷积神经网络形成,同一帧图像中的疑似目标点之间的权重为0。
图卷积神经网络可以在非欧几里德分布的数据上完成各数据点的信息传播,在多目标跟踪问题中,需要确定当前帧和上一帧之间的一对一目标匹配。目标不可一对多,多对一地匹配,即要求所有相似度完成一定的信息传播,进而完成确定的一对一匹配。图卷积神经网络可以利用特征之间的相似度来完成各目标之间的特征信息传播。
步骤八、针对当前帧中的某点,使用图卷积神经网络通过权重对该点传播相连边的另一点的特征向量,将当前帧中每个点都完成特征向量的传播进行更新,完成各疑似目标之间的相似性信息传播。
如图4所示,使用图卷积神经网络边上的权重作为权重因子,对一个点传播其他点的特征向量,以此来完成特征向量的更新。重复这样的操作直到每个点都完成了相对于其他点的信息集成和信息传递,以及每个点都在信息传递的基础上更新了点的特征向量。该可学习权重维度为特征向量的维度,与跟踪目标个数无关。进一步,将已经更新过的特征向量重新计算当前帧和上一帧的检测目标和跟踪结果目标的特征相似度。
将各疑似目标通过传播得到的特征与本身特征相结合,并完成自身特征更新。
更新公式如下:
F′I=ρ(SFJWθ)
F′J=ρ(STFIWθ)
s′ij=MLPθ(Fi,Fj)
其中,FI为当前帧所有疑似目标的结合了外表和运动信息的特征向量组成的矩阵;FJ为前一帧所有疑似目标的结合了外表和运动信息的特征向量组成的矩阵,F′I为更新后的当前帧所有疑似目标的结合了外表和运动信息的特征向量组成的矩阵;F′J为更新后的前一帧所有疑似目标的结合了外表和运动信息的特征向量组成的矩阵;ρ(·)为非线性层,S为更新后两帧中所有疑似目标的相似度组成的矩阵,Wθ为可学习参数矩阵,MLPθ(·)为可学习多层感知机,s′ij为更新后当前帧中第i个疑似目标和前一帧图像中第j个疑似目标的归一化的相似度。
前两个图卷积神经网络信息传播的公式是指所有目标提取的特征向量通过关系矩阵和网络中可学习的权重矩阵进行更新。使用可学习的权重矩阵来控制信息集成过程,在监督学习的基础之下确保信息传播更新的可控性和可调节性,并通过反向传播更新信息集成的权重矩阵参数,实现更有效地信息传播和集成。
特征矩阵共有两个维度,一个维度是特征矩阵代表的视频帧中所有的目标,另一维度是特征维度;这两个特征矩阵每一个矩阵代表了一帧中所有目标的特征向量。
步骤九、将上一帧和当前帧中所有疑似目标点,利用更新的特征向量再次重新计算每两个疑似目标的特征相似度,从而通过监督学习保证了两帧之间多目标的一对一匹配。
在更新特征的基础上,重新计算两疑似目标间的相似度,并构建所有目标的相似度矩阵。上一帧中有m个疑似目标,当前帧中有n个疑似目标,则共计算m*n次来评估两帧中所有疑似目标两两之间的相似度;当某特征相似度的值达到预先设定的阈值后,则该特征相似度对应的两个疑似目标为一对一匹配,从而输出当前帧所有有效检测框的目标编号及检测框坐标。
将已经更新过的特征向量重新计算当前帧和上一帧的检测目标和跟踪结果目标的特征相似度,通过相似度矩阵读出上一帧跟踪结果和当前帧检测框的匹配情况,从而通过监督学习保证了两帧之间多目标的逐队匹配。在相似度矩阵中,相似度高的即为上一帧跟踪目标在下一帧的跟踪结果。
同时,当两帧中目标个数不同时,则必有目标死亡(即目标被遮挡而未被检测或离开视频范围)或目标出生(即有新的目标进入视频),认为死亡的目标消失而不做任何匹配操作,出生的目标为其分配新的ID。
一对一匹配指两帧中的所有疑似目标,除去目标出生和目标死亡的情况,都能匹配且仅匹配一个下一帧的目标。该模型输出的关系矩阵可以保证在设定阈值的情况下对两帧中目标一对一匹配。
本发明用图卷积神经网络完成所有匹配对之间的信息传输,完成所有匹配结果的信息传输,输出一对一目标跟踪匹配在当前帧的结果。
Claims (3)
1.一种面向空基监视的多目标跟踪方法,其特征在于,具体步骤如下:
步骤一、获取待检测场景图并对其进行初步处理,使用通用检测器完成场景中所有疑似目标的检测,得到所有疑似目标的检测框的位置坐标信息;
步骤二、针对某视频帧图像,对该帧图像中的某个疑似目标,使用基于外表信息的特征提取网络和基于运动信息的特征提取网络进行处理,分别获得疑似目标的外表特征向量和运动特征向量;
步骤三、对外表特征向量和运动特征向量使用多源信息集成模块进行特征获取和融合,得到该疑似目标的结合了外表和运动信息的特征向量;
即,
其中Fi为融合后该帧中第i个疑似目标的特征向量,Ai为第i个疑似目标的外表特征向量,Mi为第i个疑似目标的运动特征向量,为融合外表和运动特征向量的核函数;
步骤四、针对待检测场景图的每帧图像中出现的所有疑似目标,分别计算各疑似目标的结合了外表和运动信息的特征向量;
步骤五、从上一帧和当前帧中各选择一个疑似目标,根据各自的结合了外表和运动信息的特征向量,计算两个疑似目标的相似度并归一化;
归一化相似度计算公式如下:
其中sij为输出的当前帧中第i个疑似目标和前一帧图像中第j个疑似目标的归一化相似度,Fi为当前帧中第i个疑似目标的结合了外表和运动信息的特征向量;Fj为前一帧中第j个疑似目标结合了外表和运动信息的特征向量,为计算归一化相似度的核函数;
步骤六、将上一帧和当前帧中每个疑似目标,两两遍历,得到每两个疑似目标之间的相似度;
步骤七、将上一帧和当前帧中所有疑似目标作为点,两疑似目标之间的相似度作为两点间边的权重,构建图卷积神经网络;
同一帧图像中的疑似目标点之间的权重为0;
步骤八、针对当前帧中的某点,通过权重对该点传播相连边的另一点的特征向量,将当前帧中每个点都完成特征向量的传播进行更新;
更新公式如下:
F′I=ρ(SFJWθ)
F′J=ρ(STFIWθ)
s′ij=MLPθ(Fi,Fj)
其中,FI为当前帧所有疑似目标的结合了外表和运动信息的特征向量组成的矩阵;FJ为前一帧所有疑似目标的结合了外表和运动信息的特征向量组成的矩阵,F′I为更新后的当前帧所有疑似目标的结合了外表和运动信息的特征向量组成的矩阵;F′J为更新后的前一帧所有疑似目标的结合了外表和运动信息的特征向量组成的矩阵;ρ(·)为非线性层,S为更新后两帧中所有疑似目标的相似度组成的矩阵,Wθ为可学习参数矩阵,MLPθ(·)为可学习多层感知机,s′ij为更新后当前帧中第i个疑似目标和前一帧图像中第j个疑似目标的归一化的相似度;
步骤九、将上一帧和当前帧中的所有疑似目标点,利用更新的特征向量再次重新计算每两个疑似目标的特征相似度,从而通过监督学习保证了两帧之间多目标的一对一匹配。
2.如权利要求1所述的一种面向空基监视的多目标跟踪方法,其特征在于,步骤二中所述的基于外表信息的特征提取网络采用卷积神经网络,通过卷积核的空间卷积操作及池化层、卷积层的多层堆叠,实现图像从冗余特征到精细特征的过度,以及从像素信息到语义信息的转换,实现强有力的目标图像的空间特征提取;
基于运动信息的特征提取采用长短记忆循环神经网络,将疑似目标的检测框中心点坐标作为输入,通过五个长短期记忆循环神经网络单元融合目标前五帧的坐标信息,完成跨时域的信息结合和分析,从而输出目标的运动信息。
3.如权利要求1所述的一种面向空基监视的多目标跟踪方法,其特征在于,所述的步骤九具体为:上一帧中有m个疑似目标,当前帧中有n个疑似目标,则共计算m*n次来评估两帧中所有疑似目标两两之间的相似度;当某特征相似度的值达到预先设定的阈值后,则该特征相似度对应的两个疑似目标为一对一匹配。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910331239.XA CN110163890B (zh) | 2019-04-24 | 2019-04-24 | 一种面向空基监视的多目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910331239.XA CN110163890B (zh) | 2019-04-24 | 2019-04-24 | 一种面向空基监视的多目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110163890A true CN110163890A (zh) | 2019-08-23 |
CN110163890B CN110163890B (zh) | 2020-11-06 |
Family
ID=67639893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910331239.XA Active CN110163890B (zh) | 2019-04-24 | 2019-04-24 | 一种面向空基监视的多目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110163890B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111292352A (zh) * | 2020-01-20 | 2020-06-16 | 杭州电子科技大学 | 多目标跟踪方法、装置、设备及存储介质 |
CN111539991A (zh) * | 2020-04-28 | 2020-08-14 | 北京市商汤科技开发有限公司 | 目标跟踪方法及装置、存储介质 |
CN112215869A (zh) * | 2020-10-12 | 2021-01-12 | 华中科技大学 | 一种基于图相似性约束的群目标跟踪方法和系统 |
CN112800944A (zh) * | 2021-01-26 | 2021-05-14 | 北京市商汤科技开发有限公司 | 人群行为检测方法及装置、电子设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108648095A (zh) * | 2018-05-10 | 2018-10-12 | 浙江工业大学 | 一种基于图卷积网络梯度的节点信息隐藏方法 |
CN109272530A (zh) * | 2018-08-08 | 2019-01-25 | 北京航空航天大学 | 面向空基监视场景的目标跟踪方法与装置 |
CN109299373A (zh) * | 2018-10-20 | 2019-02-01 | 上海交通大学 | 基于图卷积技术的推荐系统 |
CN109344725A (zh) * | 2018-09-04 | 2019-02-15 | 上海交通大学 | 一种基于时空关注度机制的多行人在线跟踪方法 |
CN109360226A (zh) * | 2018-10-17 | 2019-02-19 | 武汉大学 | 一种基于时间序列多特征融合的多目标跟踪方法 |
US20190095806A1 (en) * | 2017-09-28 | 2019-03-28 | Siemens Aktiengesellschaft | SGCNN: Structural Graph Convolutional Neural Network |
-
2019
- 2019-04-24 CN CN201910331239.XA patent/CN110163890B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190095806A1 (en) * | 2017-09-28 | 2019-03-28 | Siemens Aktiengesellschaft | SGCNN: Structural Graph Convolutional Neural Network |
CN108648095A (zh) * | 2018-05-10 | 2018-10-12 | 浙江工业大学 | 一种基于图卷积网络梯度的节点信息隐藏方法 |
CN109272530A (zh) * | 2018-08-08 | 2019-01-25 | 北京航空航天大学 | 面向空基监视场景的目标跟踪方法与装置 |
CN109344725A (zh) * | 2018-09-04 | 2019-02-15 | 上海交通大学 | 一种基于时空关注度机制的多行人在线跟踪方法 |
CN109360226A (zh) * | 2018-10-17 | 2019-02-19 | 武汉大学 | 一种基于时间序列多特征融合的多目标跟踪方法 |
CN109299373A (zh) * | 2018-10-20 | 2019-02-01 | 上海交通大学 | 基于图卷积技术的推荐系统 |
Non-Patent Citations (1)
Title |
---|
MARCHEGGIANI DIEGO等: "《Deep Graph Convolutional Encoders for Structured Data to Text Generation》", 《HTTP://ARXIV.ORG/ABS/1810.09995》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111292352A (zh) * | 2020-01-20 | 2020-06-16 | 杭州电子科技大学 | 多目标跟踪方法、装置、设备及存储介质 |
CN111292352B (zh) * | 2020-01-20 | 2023-08-25 | 杭州电子科技大学 | 多目标跟踪方法、装置、设备及存储介质 |
CN111539991A (zh) * | 2020-04-28 | 2020-08-14 | 北京市商汤科技开发有限公司 | 目标跟踪方法及装置、存储介质 |
WO2021218671A1 (zh) * | 2020-04-28 | 2021-11-04 | 北京市商汤科技开发有限公司 | 目标跟踪方法及装置、存储介质及计算机程序 |
TWI769787B (zh) * | 2020-04-28 | 2022-07-01 | 大陸商北京市商湯科技開發有限公司 | 目標跟蹤方法及裝置、存儲介質 |
JP2022542566A (ja) * | 2020-04-28 | 2022-10-05 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | オブジェクト追跡方法及び装置、記憶媒体並びにコンピュータプログラム |
JP7292492B2 (ja) | 2020-04-28 | 2023-06-16 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | オブジェクト追跡方法及び装置、記憶媒体並びにコンピュータプログラム |
CN111539991B (zh) * | 2020-04-28 | 2023-10-20 | 北京市商汤科技开发有限公司 | 目标跟踪方法及装置、存储介质 |
CN112215869A (zh) * | 2020-10-12 | 2021-01-12 | 华中科技大学 | 一种基于图相似性约束的群目标跟踪方法和系统 |
CN112800944A (zh) * | 2021-01-26 | 2021-05-14 | 北京市商汤科技开发有限公司 | 人群行为检测方法及装置、电子设备和存储介质 |
CN112800944B (zh) * | 2021-01-26 | 2023-12-19 | 北京市商汤科技开发有限公司 | 人群行为检测方法及装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110163890B (zh) | 2020-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163890A (zh) | 一种面向空基监视的多目标跟踪方法 | |
WO2020170014A1 (en) | Object counting and instance segmentation using neural network architectures with image-level supervision | |
CN107016357A (zh) | 一种基于时间域卷积神经网络的视频行人检测方法 | |
CN110781736A (zh) | 基于双流网络将姿态和注意力相结合的行人重识别方法 | |
Carneiro et al. | Multi-stream deep convolutional network using high-level features applied to fall detection in video sequences | |
Riaz et al. | Anomalous human action detection using a cascade of deep learning models | |
Wang et al. | Fighting against terrorism: A real-time CCTV autonomous weapons detection based on improved YOLO v4 | |
EP3352112A1 (en) | Architecture adapted for recognising a category of an element from at least one image of said element | |
CN101299276B (zh) | 分布式多目标跟踪的方法和系统 | |
Wang et al. | Learning precise feature via self-attention and self-cooperation YOLOX for smoke detection | |
Sornalakshmi et al. | Real Time Object Detection Using Deep Learning | |
Rahman et al. | Real-Time Object Detection using Machine Learning | |
Khan et al. | Efficient person re-identification for IoT-assisted cyber-physical systems | |
Li et al. | KAMTFENet: a fall detection algorithm based on keypoint attention module and temporal feature extraction | |
Raj et al. | Exploring techniques to improve activity recognition using human pose skeletons | |
Zhang et al. | An efficient deep neural network with color-weighted loss for fire detection | |
Yizhou et al. | Application of the ssd algorithm in a people flow monitoring system | |
Suba et al. | Violence detection for surveillance systems using lightweight CNN models | |
Rashidan et al. | Detection of different classes moving object in public surveillance using artificial neural network (ann) | |
Muhamad et al. | A comparative study using improved LSTM/GRU for human action recognition | |
Sharma et al. | Preventing car damage using CNN and computer vision | |
Leng et al. | Context learning network for object detection | |
Karim Baareh et al. | Feature based 3D object recognition using artificial neural networks | |
Yin Albert et al. | Identifying and Monitoring Students’ Classroom Learning Behavior Based on Multisource Information | |
Dave et al. | Multi-object Detection: A Social Distancing Monitoring System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |