CN112529941A - 一种基于深度轨迹预测的多目标跟踪方法及系统 - Google Patents
一种基于深度轨迹预测的多目标跟踪方法及系统 Download PDFInfo
- Publication number
- CN112529941A CN112529941A CN202011497005.1A CN202011497005A CN112529941A CN 112529941 A CN112529941 A CN 112529941A CN 202011497005 A CN202011497005 A CN 202011497005A CN 112529941 A CN112529941 A CN 112529941A
- Authority
- CN
- China
- Prior art keywords
- track
- information
- predicted
- target
- segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000012544 monitoring process Methods 0.000 claims abstract description 33
- 238000012545 processing Methods 0.000 claims abstract description 28
- 238000005457 optimization Methods 0.000 claims abstract description 13
- 238000013135 deep learning Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 8
- 238000011156 evaluation Methods 0.000 claims description 114
- 238000012937 correction Methods 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 16
- 238000013459 approach Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 8
- 238000009432 framing Methods 0.000 claims description 8
- 238000007499 fusion processing Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 4
- 230000009286 beneficial effect Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度轨迹预测的多目标跟踪方法及系统,包括:读取监控视频中的图像信息;对图像信息进行目标识别,获取球体的运动规律及球体颜色空间分布;结合预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;根据轨迹信息构建第一RNN模型并进行训练;融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入第二RNN模型中,输出预测轨迹信息。通过分层的处理策略有效降低运算开销,达到了高帧率实时处理的目的;同时通过深度学习轨迹建模,可以有效预测和拟合运动球体的行进路线,提高对多目标轨迹跟踪的准确性。
Description
技术领域
本发明涉及视频目标跟踪技术领域,特别涉及一种基于深度轨迹预测的多目标跟踪方法及系统。
背景技术
目前,多目标球体在区域内运动时,存在碰撞,跳跃和短时遮挡等复杂情形,这给高速运动的多目标轨迹跟踪带来挑战,不能实现对多目标轨迹进行准确跟踪,同时也无法准确预测多目标轨迹。
发明内容
本发明旨在至少一定程度上解决上述技术中的技术问题之一。为此,本发明的第一个目的在于提出一种基于深度轨迹预测的多目标跟踪方法,提出了分层的多信息融合算法,充分利用刚性球体的运动规律,刚体碰撞的物理模型以及球体颜色空间分布等信息实现多球体的轨迹跟踪,进行RNN轨迹建模及融合,同时通过分层的处理策略有效降低运算开销,达到了高帧率实时处理的目的;同时通过深度学习轨迹建模,可以有效预测和拟合运动球体的行进路线,提高对多目标轨迹跟踪的准确性。
本发明的第二个目的在于提出一种基于深度轨迹预测的多目标跟踪系统。
为达到上述目的,本发明第一方面实施例提出了一种基于深度轨迹预测的多目标跟踪方法,包括:
S1、在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;
S2、对所述图像信息进行目标识别,获取球体的运动规律及球体颜色空间分布;根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;
S3、根据所述轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;
S4、对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;
S5、获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
根据本发明的一些实施例,所述输出预测轨迹信息后,还包括:
计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整;
在确定所述目标球体的轨迹信息完整时,对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,进而获取目标球体在各个时刻的场景信息及位置信息;
根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;
根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
根据本发明的一些实施例,在确定所述目标球体的轨迹信息不完整时,对目标视频进行重新解析,判断是否增加新的轨迹片段;
在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,并计算匹配度,基于单个新的轨迹片段,获取最高匹配度对应的轨迹信息及所述轨迹信息对应的目标球体,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
根据本发明的一些实施例,所述计算预测轨迹信息的置信度,包括:
S21、将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,计算主观评估与客观评估的相似度S:
其中,Xi为主观评估序列中对第i个预测轨迹片段的主观评价;Yi为客观评估序列中对第i个预测轨迹片段的客观评价;
S22、截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;所述尾部轨迹片段与所述首个预测轨迹片段长度相同;
S23、根据主观评估与客观评估的相似度S及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度W:
其中,β1为对从正向途径推导的置信度的修正因子;W1为基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从正向途径推导的置信度;β2对从逆向途径推导的置信度的修正因子;W2基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从逆向途径推导的置信度;δ为对首个预测轨迹片段与最后一个预测轨迹片段的相似度的修正因子;P为预测轨迹信息的首个预测轨迹片段与最后一个预测轨迹片段的相似度;λ为预测轨迹信息中从首个预测轨迹片段到最后一个预测轨迹片段的置信度的衰减参数;W0为尾部轨迹片段与首个预测轨迹片段的最大置信度;q为截取的尾部轨迹片段为有效值的概率。
根据本发明的一些实施例,所述根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系,包括:
确定目标球体在各个时刻的场景信息与所述位置信息的关联度,根据所述关联度的大小确定各个时刻的评估参数;
根据所述评估参数生成对目标球体的轨迹信息的评估体系。
根据本发明的一些实施例,在将目标球体的轨迹信息输入所述第二RNN模型前,还包括:计算所述轨迹信息的信噪比,并判断是否大于预设信噪比阈值,在确定所述信噪比小于预设信噪比阈值时,对所述轨迹信息进行降噪处理。
为达到上述目的,本发明第二方面实施例提出了一种基于深度轨迹预测的多目标跟踪系统,包括:
读取模块,用于在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;
轨迹信息获取模块,用于对所述图像信息进行目标识别,获取球体的运动规律及球体颜色空间分布;根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;
构建模型模块,用于根据所述轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;
优化模型模块,用于对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;
预测轨迹信息获取模块,用于获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
根据本发明的一些实施例,还包括:
检测模块,用于计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整;
提取模块,用于在确定所述目标球体的轨迹信息完整时,对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,进而获取目标球体在各个时刻的场景信息及位置信息;
评估体系生成模块,用于根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;
更新模块,用于根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
根据本发明的一些实施例,还包括:
判断模块,用于在确定所述目标球体的轨迹信息不完整时,对目标视频进行重新解析,判断是否增加新的轨迹片段;
信息融合模块,用于在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,并计算匹配度,基于单个新的轨迹片段,获取最高匹配度对应的轨迹信息及所述轨迹信息对应的目标球体,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
根据本发明的一些实施例,所述检测模块计算预测轨迹信息的置信度,包括:
S21、将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,计算主观评估与客观评估的相似度S:
其中,Xi为主观评估序列中对第i个预测轨迹片段的主观评价;Yi为客观评估序列中对第i个预测轨迹片段的客观评价;
S22、截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;所述尾部轨迹片段与所述首个预测轨迹片段长度相同;
S23、根据主观评估与客观评估的相似度S及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度W:
其中,β1为对从正向途径推导的置信度的修正因子;W1为基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从正向途径推导的置信度;β2对从逆向途径推导的置信度的修正因子;W2基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从逆向途径推导的置信度;δ为对首个预测轨迹片段与最后一个预测轨迹片段的相似度的修正因子;P为预测轨迹信息的首个预测轨迹片段与最后一个预测轨迹片段的相似度;λ为预测轨迹信息中从首个预测轨迹片段到最后一个预测轨迹片段的置信度的衰减参数;W0为尾部轨迹片段与首个预测轨迹片段的最大置信度;q为截取的尾部轨迹片段为有效值的概率。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是根据本发明一个实施例的一种基于深度轨迹预测的多目标跟踪方法的流程图;
图2是根据本发明一个实施例的一种基于深度轨迹预测的多目标跟踪系统的框图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
如图1所示,本发明第一方面实施例提出了一种基于深度轨迹预测的多目标跟踪方法,包括:
S1、在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;
S2、对所述图像信息进行目标识别,获取球体的运动规律及球体颜色空间分布;根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;
S3、根据所述轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;
S4、对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;
S5、获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
上述技术方案的工作原理:在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;对所述图像信息进行目标识别,即识别图像中的球体的相关信息,如球体的运动规律及球体颜色空间分布,在多个球体的场景中会发生刚体碰撞,根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;采取大量的球体的轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;在发生刚性球体碰撞后,根据碰撞能量的衰减规律及各个刚性球体碰撞的顺序,角度,力度等信息对模型进行优化处理。获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
上述技术方案的有益效果:提出了分层的多信息融合算法,充分利用刚性球体的运动规律,刚体碰撞的物理模型以及球体颜色空间分布等信息实现多球体的轨迹跟踪,进行RNN轨迹建模及融合,同时通过分层的处理策略有效降低运算开销,达到了高帧率实时处理的目的;同时通过深度学习轨迹建模,可以有效预测和拟合运动球体的行进路线,提高对多目标轨迹跟踪的准确性。
根据本发明的一些实施例,所述输出预测轨迹信息后,还包括:
计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整;
在确定所述目标球体的轨迹信息完整时,对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,进而获取目标球体在各个时刻的场景信息及位置信息;
根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;
根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
上述技术方案的工作原理:在输出预测轨迹信息后,对预测轨迹信息进行检测,具体的,计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,表示输出的预测轨迹信息不准确,此时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整,首先判断输入轨迹信息的准确性及完整性,在确定所述目标球体的轨迹信息完整时,排除输入的轨迹信息的影响;对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,特征参数如目标球体的某一时刻的位置,与其他球体的距离及碰撞关系等,进而获取目标球体在各个时刻的场景信息及位置信息;根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
上述技术方案的有益效果:实现对第二RNN模型中的预测轨迹函数的更新,保证输出的预测轨迹信息的准确性。
根据本发明的一些实施例,在确定所述目标球体的轨迹信息不完整时,对目标视频进行重新解析,判断是否增加新的轨迹片段;
在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,并计算匹配度,基于单个新的轨迹片段,获取最高匹配度对应的轨迹信息及所述轨迹信息对应的目标球体,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
上述技术方案的工作原理:在确定所述目标球体的轨迹信息不完整时,表示输入的轨迹信息影响输出预测轨迹信息的准确性,对目标视频进行重新解析,判断是否增加新的轨迹片段;在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,示例的,新的轨迹片段包括轨迹片段A,分别计算轨迹片段A与轨迹信息B、轨迹信息C的匹配度,得到匹配度a,匹配度b;匹配度b大于匹配度a,故轨迹片段A与轨迹信息C更加匹配,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
上述技术方案的有益效果:对目标球体的轨迹信息进行有效的融合,保证轨迹信息的完整性,保证输入模型变量的准确性。
根据本发明的一些实施例,所述计算预测轨迹信息的置信度,包括:
S21、将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,计算主观评估与客观评估的相似度S:
其中,Xi为主观评估序列中对第i个预测轨迹片段的主观评价;Yi为客观评估序列中对第i个预测轨迹片段的客观评价;
S22、截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;所述尾部轨迹片段与所述首个预测轨迹片段长度相同;
S23、根据主观评估与客观评估的相似度S及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度W:
其中,β1为对从正向途径推导的置信度的修正因子;W1为基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从正向途径推导的置信度;β2对从逆向途径推导的置信度的修正因子;W2基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从逆向途径推导的置信度;δ为对首个预测轨迹片段与最后一个预测轨迹片段的相似度的修正因子;P为预测轨迹信息的首个预测轨迹片段与最后一个预测轨迹片段的相似度;λ为预测轨迹信息中从首个预测轨迹片段到最后一个预测轨迹片段的置信度的衰减参数;W0为尾部轨迹片段与首个预测轨迹片段的最大置信度;q为截取的尾部轨迹片段为有效值的概率。
上述技术方案的工作原理及有益效果:将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;根据主观评估与客观评估的相似度及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度,提高计算出的置信度的准确性。通过对各个预测轨迹片段进行主观评估及客观评估,实现准确评估,基于欧氏距离计算主观评估与客观评估的相似度,表征两者之间的异同,实现对预测轨迹片段的准确评估。
根据本发明的一些实施例,所述根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系,包括:
确定目标球体在各个时刻的场景信息与所述位置信息的关联度,根据所述关联度的大小确定各个时刻的评估参数;
根据所述评估参数生成对目标球体的轨迹信息的评估体系。
上述技术方案的工作原理:确定目标球体在各个时刻的场景信息与所述位置信息的关联度,根据所述关联度的大小确定各个时刻的评估参数;根据所述评估参数生成对目标球体的轨迹信息的评估体系。
上述技术方案的有益效果:使得构建的评估体系更加准确,进而实现对第二RNN模型中的预测轨迹函数准确更新。
根据本发明的一些实施例,在将目标球体的轨迹信息输入所述第二RNN模型前,还包括:计算所述轨迹信息的信噪比,并判断是否大于预设信噪比阈值,在确定所述信噪比小于预设信噪比阈值时,对所述轨迹信息进行降噪处理。
上述技术方案的有益效果:消除输入第二RNN模型的轨迹信息中的噪声,保证输入变量的准确性,进而提高输出的预测轨迹信息的准确性。
如图2所示,本发明第二方面实施例提出了一种基于深度轨迹预测的多目标跟踪系统,包括:
读取模块,用于在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;
轨迹信息获取模块,用于对所述图像信息进行目标识别,获取球体的运动规律及球体颜色空间分布;根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;
构建模型模块,用于根据所述轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;
优化模型模块,用于对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;
预测轨迹信息获取模块,用于获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
上述技术方案的工作原理:读取模块在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;轨迹信息获取模块对所述图像信息进行目标识别,即识别图像中的球体的相关信息,如球体的运动规律及球体颜色空间分布,在多个球体的场景中会发生刚体碰撞,根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;构建模型模块采取大量的球体的轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;优化模型模块对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;在发生刚性球体碰撞后,根据碰撞能量的衰减规律及各个刚性球体碰撞的顺序,角度,力度等信息对模型进行优化处理。预测轨迹信息获取模块获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
上述技术方案的有益效果:提出了分层的多信息融合算法,充分利用刚性球体的运动规律,刚体碰撞的物理模型以及球体颜色空间分布等信息实现多球体的轨迹跟踪,进行RNN轨迹建模及融合,同时通过分层的处理策略有效降低运算开销,达到了高帧率实时处理的目的;同时通过深度学习轨迹建模,可以有效预测和拟合运动球体的行进路线,提高对多目标轨迹跟踪的准确性。
根据本发明的一些实施例,还包括:
检测模块,用于计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整;
提取模块,用于在确定所述目标球体的轨迹信息完整时,对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,进而获取目标球体在各个时刻的场景信息及位置信息;
评估体系生成模块,用于根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;
更新模块,用于根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
上述技术方案的工作原理:检测模块在输出预测轨迹信息后,对预测轨迹信息进行检测,具体的,计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,表示输出的预测轨迹信息不准确,此时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整,首先判断输入轨迹信息的准确性及完整性,提取模块在确定所述目标球体的轨迹信息完整时,排除输入的轨迹信息的影响;对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,特征参数如目标球体的某一时刻的位置,与其他球体的距离及碰撞关系等,进而获取目标球体在各个时刻的场景信息及位置信息;评估体系生成模块根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;更新模块根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
上述技术方案的有益效果:实现对第二RNN模型中的预测轨迹函数的更新,保证输出的预测轨迹信息的准确性。
根据本发明的一些实施例,还包括:
判断模块,用于在确定所述目标球体的轨迹信息不完整时,对目标视频进行重新解析,判断是否增加新的轨迹片段;
信息融合模块,用于在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,并计算匹配度,基于单个新的轨迹片段,获取最高匹配度对应的轨迹信息及所述轨迹信息对应的目标球体,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
上述技术方案的工作原理:判断模块在确定所述目标球体的轨迹信息不完整时,表示输入的轨迹信息影响输出预测轨迹信息的准确性,对目标视频进行重新解析,判断是否增加新的轨迹片段;信息融合模块在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,示例的,新的轨迹片段包括轨迹片段A,分别计算轨迹片段A与轨迹信息B、轨迹信息C的匹配度,得到匹配度a,匹配度b;匹配度b大于匹配度a,故轨迹片段A与轨迹信息C更加匹配,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
上述技术方案的有益效果:对目标球体的轨迹信息进行有效的融合,保证轨迹信息的完整性,保证输入模型变量的准确性。
根据本发明的一些实施例,所述检测模块计算预测轨迹信息的置信度,包括:
S21、将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,计算主观评估与客观评估的相似度S:
其中,Xi为主观评估序列中对第i个预测轨迹片段的主观评价;Yi为客观评估序列中对第i个预测轨迹片段的客观评价;
S22、截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;所述尾部轨迹片段与所述首个预测轨迹片段长度相同;
S23、根据主观评估与客观评估的相似度S及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度W:
其中,β1为对从正向途径推导的置信度的修正因子;W1为基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从正向途径推导的置信度;β2对从逆向途径推导的置信度的修正因子;W2基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从逆向途径推导的置信度;δ为对首个预测轨迹片段与最后一个预测轨迹片段的相似度的修正因子;P为预测轨迹信息的首个预测轨迹片段与最后一个预测轨迹片段的相似度;λ为预测轨迹信息中从首个预测轨迹片段到最后一个预测轨迹片段的置信度的衰减参数;W0为尾部轨迹片段与首个预测轨迹片段的最大置信度;q为截取的尾部轨迹片段为有效值的概率。
上述技术方案的工作原理及有益效果:检测模块将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;根据主观评估与客观评估的相似度及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度,提高计算出的置信度的准确性。通过对各个预测轨迹片段进行主观评估及客观评估,实现准确评估,基于欧氏距离计算主观评估与客观评估的相似度,表征两者之间的异同,实现对预测轨迹片段的准确评估。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种基于深度轨迹预测的多目标跟踪方法,其特征在于,包括:
S1、在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;
S2、对所述图像信息进行目标识别,获取球体的运动规律及球体颜色空间分布;根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;
S3、根据所述轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;
S4、对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;
S5、获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
2.如权利要求1所述的基于深度轨迹预测的多目标跟踪方法,其特征在于,所述输出预测轨迹信息后,还包括:
计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整;
在确定所述目标球体的轨迹信息完整时,对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,进而获取目标球体在各个时刻的场景信息及位置信息;
根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;
根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
3.如权利要求2所述的基于深度轨迹预测的多目标跟踪方法,其特征在于,在确定所述目标球体的轨迹信息不完整时,对目标视频进行重新解析,判断是否增加新的轨迹片段;
在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,并计算匹配度,基于单个新的轨迹片段,获取最高匹配度对应的轨迹信息及所述轨迹信息对应的目标球体,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
4.如权利要求2所述的基于深度轨迹预测的多目标跟踪方法,其特征在于,所述计算预测轨迹信息的置信度,包括:
S21、将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,计算主观评估与客观评估的相似度S:
其中,Xi为主观评估序列中对第i个预测轨迹片段的主观评价;Yi为客观评估序列中对第i个预测轨迹片段的客观评价;
S22、截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;所述尾部轨迹片段与所述首个预测轨迹片段长度相同;
S23、根据主观评估与客观评估的相似度S及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度W:
其中,β1为对从正向途径推导的置信度的修正因子;W1为基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从正向途径推导的置信度;β2对从逆向途径推导的置信度的修正因子;W2基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从逆向途径推导的置信度;δ为对首个预测轨迹片段与最后一个预测轨迹片段的相似度的修正因子;P为预测轨迹信息的首个预测轨迹片段与最后一个预测轨迹片段的相似度;λ为预测轨迹信息中从首个预测轨迹片段到最后一个预测轨迹片段的置信度的衰减参数;W0为尾部轨迹片段与首个预测轨迹片段的最大置信度;q为截取的尾部轨迹片段为有效值的概率。
5.如权利要求2所述的基于深度轨迹预测的多目标跟踪方法,其特征在于,所述根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系,包括:
确定目标球体在各个时刻的场景信息与所述位置信息的关联度,根据所述关联度的大小确定各个时刻的评估参数;
根据所述评估参数生成对目标球体的轨迹信息的评估体系。
6.如权利要求1所述的基于深度轨迹预测的多目标跟踪方法,其特征在于,在将目标球体的轨迹信息输入所述第二RNN模型前,还包括:计算所述轨迹信息的信噪比,并判断是否大于预设信噪比阈值,在确定所述信噪比小于预设信噪比阈值时,对所述轨迹信息进行降噪处理。
7.一种基于深度轨迹预测的多目标跟踪系统,其特征在于,包括:
读取模块,用于在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;
轨迹信息获取模块,用于对所述图像信息进行目标识别,获取球体的运动规律及球体颜色空间分布;根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;
构建模型模块,用于根据所述轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;
优化模型模块,用于对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;
预测轨迹信息获取模块,用于获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
8.如权利要求7所述的基于深度轨迹预测的多目标跟踪系统,其特征在于,还包括:
检测模块,用于计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整;
提取模块,用于在确定所述目标球体的轨迹信息完整时,对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,进而获取目标球体在各个时刻的场景信息及位置信息;
评估体系生成模块,用于根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;
更新模块,用于根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
9.如权利要求8所述的基于深度轨迹预测的多目标跟踪系统,其特征在于,还包括:
判断模块,用于在确定所述目标球体的轨迹信息不完整时,对目标视频进行重新解析,判断是否增加新的轨迹片段;
信息融合模块,用于在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,并计算匹配度,基于单个新的轨迹片段,获取最高匹配度对应的轨迹信息及所述轨迹信息对应的目标球体,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
10.如权利要求7所述的基于深度轨迹预测的多目标跟踪系统,其特征在于,所述检测模块计算预测轨迹信息的置信度,包括:
S21、将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,计算主观评估与客观评估的相似度S:
其中,Xi为主观评估序列中对第i个预测轨迹片段的主观评价;Yi为客观评估序列中对第i个预测轨迹片段的客观评价;
S22、截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;所述尾部轨迹片段与所述首个预测轨迹片段长度相同;
S23、根据主观评估与客观评估的相似度S及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度W:
其中,β1为对从正向途径推导的置信度的修正因子;W1为基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从正向途径推导的置信度;β2对从逆向途径推导的置信度的修正因子;W2基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从逆向途径推导的置信度;δ为对首个预测轨迹片段与最后一个预测轨迹片段的相似度的修正因子;P为预测轨迹信息的首个预测轨迹片段与最后一个预测轨迹片段的相似度;λ为预测轨迹信息中从首个预测轨迹片段到最后一个预测轨迹片段的置信度的衰减参数;W0为尾部轨迹片段与首个预测轨迹片段的最大置信度;q为截取的尾部轨迹片段为有效值的概率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011497005.1A CN112529941B (zh) | 2020-12-17 | 2020-12-17 | 一种基于深度轨迹预测的多目标跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011497005.1A CN112529941B (zh) | 2020-12-17 | 2020-12-17 | 一种基于深度轨迹预测的多目标跟踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112529941A true CN112529941A (zh) | 2021-03-19 |
CN112529941B CN112529941B (zh) | 2021-08-31 |
Family
ID=75001068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011497005.1A Active CN112529941B (zh) | 2020-12-17 | 2020-12-17 | 一种基于深度轨迹预测的多目标跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112529941B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114821812A (zh) * | 2022-06-24 | 2022-07-29 | 西南石油大学 | 一种基于深度学习的花样滑冰选手骨骼点动作识别方法 |
US20230033548A1 (en) * | 2021-07-26 | 2023-02-02 | Manpreet Singh TAKKAR | Systems and methods for performing computer vision task using a sequence of frames |
Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102426391A (zh) * | 2011-09-05 | 2012-04-25 | 华南理工大学 | 一种判断机器人运行是否发生碰撞的方法 |
CN103048658A (zh) * | 2012-11-10 | 2013-04-17 | 中国人民解放军海军航空工程学院 | 基于径向加速度的RA-Singer-EKF机动目标跟踪算法 |
CN104391281A (zh) * | 2014-11-21 | 2015-03-04 | 武汉大学 | 提高天波雷达海面船舶目标跟踪定位精度的方法 |
CN105224807A (zh) * | 2015-10-14 | 2016-01-06 | 东软集团股份有限公司 | 病例审核规则提取方法及装置,病例审核方法及系统 |
CN105233483A (zh) * | 2014-07-02 | 2016-01-13 | 精工爱普生株式会社 | 运动分析方法以及运动分析装置 |
WO2016112166A1 (en) * | 2015-01-07 | 2016-07-14 | Northeastern University | Ultrasonic multiplexing network for implantable medical devices |
CN106022239A (zh) * | 2016-05-13 | 2016-10-12 | 电子科技大学 | 一种基于循环神经网络的多目标跟踪方法 |
CN107169989A (zh) * | 2017-04-17 | 2017-09-15 | 南京邮电大学 | 一种基于数据关联与轨迹评估的多目标跟踪方法 |
CN107330920A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于深度学习的监控视频多目标追踪方法 |
CN108322969A (zh) * | 2018-01-23 | 2018-07-24 | 上海康斐信息技术有限公司 | 一种用于可穿戴设备的发光控制方法、可穿戴设备 |
CN108324282A (zh) * | 2018-01-31 | 2018-07-27 | 北京工业大学 | 一种人体肩部盂肱关节旋转中心运动信息检测系统 |
CN109147398A (zh) * | 2018-09-13 | 2019-01-04 | 四川九洲空管科技有限责任公司 | 一种机载防撞系统目标监视跟踪性能优化方法 |
CN109470235A (zh) * | 2018-10-23 | 2019-03-15 | 浙江大学 | 一种基于动态簇的水下多传感器协作被动跟踪方法 |
CN110045002A (zh) * | 2019-05-14 | 2019-07-23 | 南昌航空大学 | 磁声发射信号无量纲特征参数提取方法 |
CN110135500A (zh) * | 2019-05-17 | 2019-08-16 | 南京大学 | 一种基于自适应深度特征滤波器的多场景下目标跟踪方法 |
CN110728698A (zh) * | 2019-09-30 | 2020-01-24 | 天津大学 | 一种基于复合循环神经网络系统的多目标跟踪模型 |
US10575113B2 (en) * | 2013-07-16 | 2020-02-25 | The Trustees Of The University Of Pennsylvania | Sound propagation and perception for autonomous agents in dynamic environments |
CN111133453A (zh) * | 2017-08-04 | 2020-05-08 | 诺基亚技术有限公司 | 人工神经网络 |
CN111540009A (zh) * | 2020-04-23 | 2020-08-14 | 北京字节跳动网络技术有限公司 | 用于生成检测信息的方法、装置、电子设备和介质 |
CN111797479A (zh) * | 2019-04-09 | 2020-10-20 | 辉达公司 | 使用计算机对对象的反应进行建模以模拟物理交互 |
CN112052587A (zh) * | 2020-09-02 | 2020-12-08 | 中国人民解放军陆军工程大学 | 砂土垫层的三维细观离散体模型密实方法 |
-
2020
- 2020-12-17 CN CN202011497005.1A patent/CN112529941B/zh active Active
Patent Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102426391A (zh) * | 2011-09-05 | 2012-04-25 | 华南理工大学 | 一种判断机器人运行是否发生碰撞的方法 |
CN103048658A (zh) * | 2012-11-10 | 2013-04-17 | 中国人民解放军海军航空工程学院 | 基于径向加速度的RA-Singer-EKF机动目标跟踪算法 |
US10575113B2 (en) * | 2013-07-16 | 2020-02-25 | The Trustees Of The University Of Pennsylvania | Sound propagation and perception for autonomous agents in dynamic environments |
CN105233483A (zh) * | 2014-07-02 | 2016-01-13 | 精工爱普生株式会社 | 运动分析方法以及运动分析装置 |
CN104391281A (zh) * | 2014-11-21 | 2015-03-04 | 武汉大学 | 提高天波雷达海面船舶目标跟踪定位精度的方法 |
WO2016112166A1 (en) * | 2015-01-07 | 2016-07-14 | Northeastern University | Ultrasonic multiplexing network for implantable medical devices |
CN105224807A (zh) * | 2015-10-14 | 2016-01-06 | 东软集团股份有限公司 | 病例审核规则提取方法及装置,病例审核方法及系统 |
CN106022239A (zh) * | 2016-05-13 | 2016-10-12 | 电子科技大学 | 一种基于循环神经网络的多目标跟踪方法 |
CN107169989A (zh) * | 2017-04-17 | 2017-09-15 | 南京邮电大学 | 一种基于数据关联与轨迹评估的多目标跟踪方法 |
CN107330920A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于深度学习的监控视频多目标追踪方法 |
CN111133453A (zh) * | 2017-08-04 | 2020-05-08 | 诺基亚技术有限公司 | 人工神经网络 |
CN108322969A (zh) * | 2018-01-23 | 2018-07-24 | 上海康斐信息技术有限公司 | 一种用于可穿戴设备的发光控制方法、可穿戴设备 |
CN108324282A (zh) * | 2018-01-31 | 2018-07-27 | 北京工业大学 | 一种人体肩部盂肱关节旋转中心运动信息检测系统 |
CN109147398A (zh) * | 2018-09-13 | 2019-01-04 | 四川九洲空管科技有限责任公司 | 一种机载防撞系统目标监视跟踪性能优化方法 |
CN109470235A (zh) * | 2018-10-23 | 2019-03-15 | 浙江大学 | 一种基于动态簇的水下多传感器协作被动跟踪方法 |
CN111797479A (zh) * | 2019-04-09 | 2020-10-20 | 辉达公司 | 使用计算机对对象的反应进行建模以模拟物理交互 |
CN110045002A (zh) * | 2019-05-14 | 2019-07-23 | 南昌航空大学 | 磁声发射信号无量纲特征参数提取方法 |
CN110135500A (zh) * | 2019-05-17 | 2019-08-16 | 南京大学 | 一种基于自适应深度特征滤波器的多场景下目标跟踪方法 |
CN110728698A (zh) * | 2019-09-30 | 2020-01-24 | 天津大学 | 一种基于复合循环神经网络系统的多目标跟踪模型 |
CN111540009A (zh) * | 2020-04-23 | 2020-08-14 | 北京字节跳动网络技术有限公司 | 用于生成检测信息的方法、装置、电子设备和介质 |
CN112052587A (zh) * | 2020-09-02 | 2020-12-08 | 中国人民解放军陆军工程大学 | 砂土垫层的三维细观离散体模型密实方法 |
Non-Patent Citations (5)
Title |
---|
DAKSH VARSHNEYA 等: "Human Trajectory Prediction using Spatially aware Deep Attention Models", 《ARXIV:1705.09436V1 [CS.LG]》 * |
KARTTIKEYA MANGALAM 等: "Disentangling Human Dynamics for Pedestrian Locomotion Forecasting with Noisy Supervision", 《ARXIV:1911.01138V2 [CS.CV]》 * |
YANYU XU 等: "Encoding Crowd Interaction with Deep Neural Network for Pedestrian Trajectory Prediction", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
YU ZHANG 等: "Channel Estimation for Massive MIMO-OFDM Systems by Tracking the Joint Angle-Delay Subspace", 《DIGITAL OBJECT IDENTIFIER》 * |
康一梅 等: "基于改进蚁群算法的火源定位策略研究", 《计算机工程与应用》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230033548A1 (en) * | 2021-07-26 | 2023-02-02 | Manpreet Singh TAKKAR | Systems and methods for performing computer vision task using a sequence of frames |
CN114821812A (zh) * | 2022-06-24 | 2022-07-29 | 西南石油大学 | 一种基于深度学习的花样滑冰选手骨骼点动作识别方法 |
CN114821812B (zh) * | 2022-06-24 | 2022-09-13 | 西南石油大学 | 一种基于深度学习的花样滑冰选手骨骼点动作识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112529941B (zh) | 2021-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084831B (zh) | 基于YOLOv3多伯努利视频多目标检测跟踪方法 | |
Chen et al. | Enhancing detection model for multiple hypothesis tracking | |
CN110660083A (zh) | 一种结合视频场景特征感知的多目标跟踪方法 | |
CN112529941B (zh) | 一种基于深度轨迹预测的多目标跟踪方法及系统 | |
CN110633643A (zh) | 一种面向智慧社区的异常行为检测方法及系统 | |
CN107403175A (zh) | 一种运动背景下的视觉跟踪方法及视觉跟踪系统 | |
CN106169188A (zh) | 一种基于蒙特卡洛树搜索的对象跟踪方法 | |
CN110781785A (zh) | 基于Faster RCNN算法改进的交通场景下行人检测方法 | |
CN113327272B (zh) | 一种基于相关滤波的鲁棒性长时跟踪方法 | |
CN107622507B (zh) | 一种基于深度学习的空中目标跟踪方法 | |
CN103456009B (zh) | 目标检测方法与装置、监控系统 | |
CN105809718A (zh) | 一种轨迹熵最小化的对象跟踪方法 | |
CN109543615A (zh) | 一种基于多级特征的双学习模型目标跟踪方法 | |
CN109697727A (zh) | 基于相关滤波和度量学习的目标跟踪方法、系统及存储介质 | |
CN116008936A (zh) | 一种基于毫米波雷达的人体轨迹跟踪检测方法 | |
Lu et al. | An efficient network for multi-scale and overlapped wildlife detection | |
CN111639570A (zh) | 一种基于运动模型和单目标线索的在线多目标跟踪方法 | |
CN115631216B (zh) | 一种基于多特征滤波器融合的云台目标跟踪系统和方法 | |
CN112307897A (zh) | 一种社区监控场景下基于局部特征识别和邻帧匹配的宠物跟踪方法 | |
CN111161323A (zh) | 一种基于相关滤波的复杂场景目标跟踪方法及系统 | |
Liu et al. | Multipedestrian online tracking based on social force-predicted deformable key-points mapping via compressive sensing | |
CN112597922B (zh) | 一种基于无碰撞lstm的多目标轨迹预测方法 | |
CN110675430A (zh) | 一种基于运动和表观适应融合的无人机多目标跟踪方法 | |
CN114764820A (zh) | 一种基于对比度的红外弱小目标检测、跟踪方法和系统 | |
Lukežič et al. | Performance evaluation methodology for long-term visual object tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: 518000 Room 201, building 4, software industry base, No. 19, 17 and 18, Haitian 1st Road, Binhai community, Yuehai street, Nanshan District, Shenzhen, Guangdong Patentee after: Shenzhen qidebao Technology Co.,Ltd. Address before: 518000 1705, satellite building, 61 Gaoxin South 9th Road, Gaoxin high tech Zone community, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province Patentee before: Shenzhen Puhui Zhilian Technology Co.,Ltd. |