CN112529941A - 一种基于深度轨迹预测的多目标跟踪方法及系统 - Google Patents

一种基于深度轨迹预测的多目标跟踪方法及系统 Download PDF

Info

Publication number
CN112529941A
CN112529941A CN202011497005.1A CN202011497005A CN112529941A CN 112529941 A CN112529941 A CN 112529941A CN 202011497005 A CN202011497005 A CN 202011497005A CN 112529941 A CN112529941 A CN 112529941A
Authority
CN
China
Prior art keywords
track
information
predicted
target
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011497005.1A
Other languages
English (en)
Other versions
CN112529941B (zh
Inventor
杨培春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Qidebao Technology Co ltd
Original Assignee
Shenzhen Puhui Zhilian Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Puhui Zhilian Technology Co ltd filed Critical Shenzhen Puhui Zhilian Technology Co ltd
Priority to CN202011497005.1A priority Critical patent/CN112529941B/zh
Publication of CN112529941A publication Critical patent/CN112529941A/zh
Application granted granted Critical
Publication of CN112529941B publication Critical patent/CN112529941B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度轨迹预测的多目标跟踪方法及系统,包括:读取监控视频中的图像信息;对图像信息进行目标识别,获取球体的运动规律及球体颜色空间分布;结合预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;根据轨迹信息构建第一RNN模型并进行训练;融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入第二RNN模型中,输出预测轨迹信息。通过分层的处理策略有效降低运算开销,达到了高帧率实时处理的目的;同时通过深度学习轨迹建模,可以有效预测和拟合运动球体的行进路线,提高对多目标轨迹跟踪的准确性。

Description

一种基于深度轨迹预测的多目标跟踪方法及系统
技术领域
本发明涉及视频目标跟踪技术领域,特别涉及一种基于深度轨迹预测的多目标跟踪方法及系统。
背景技术
目前,多目标球体在区域内运动时,存在碰撞,跳跃和短时遮挡等复杂情形,这给高速运动的多目标轨迹跟踪带来挑战,不能实现对多目标轨迹进行准确跟踪,同时也无法准确预测多目标轨迹。
发明内容
本发明旨在至少一定程度上解决上述技术中的技术问题之一。为此,本发明的第一个目的在于提出一种基于深度轨迹预测的多目标跟踪方法,提出了分层的多信息融合算法,充分利用刚性球体的运动规律,刚体碰撞的物理模型以及球体颜色空间分布等信息实现多球体的轨迹跟踪,进行RNN轨迹建模及融合,同时通过分层的处理策略有效降低运算开销,达到了高帧率实时处理的目的;同时通过深度学习轨迹建模,可以有效预测和拟合运动球体的行进路线,提高对多目标轨迹跟踪的准确性。
本发明的第二个目的在于提出一种基于深度轨迹预测的多目标跟踪系统。
为达到上述目的,本发明第一方面实施例提出了一种基于深度轨迹预测的多目标跟踪方法,包括:
S1、在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;
S2、对所述图像信息进行目标识别,获取球体的运动规律及球体颜色空间分布;根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;
S3、根据所述轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;
S4、对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;
S5、获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
根据本发明的一些实施例,所述输出预测轨迹信息后,还包括:
计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整;
在确定所述目标球体的轨迹信息完整时,对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,进而获取目标球体在各个时刻的场景信息及位置信息;
根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;
根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
根据本发明的一些实施例,在确定所述目标球体的轨迹信息不完整时,对目标视频进行重新解析,判断是否增加新的轨迹片段;
在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,并计算匹配度,基于单个新的轨迹片段,获取最高匹配度对应的轨迹信息及所述轨迹信息对应的目标球体,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
根据本发明的一些实施例,所述计算预测轨迹信息的置信度,包括:
S21、将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,计算主观评估与客观评估的相似度S:
Figure BDA0002842480930000031
其中,Xi为主观评估序列中对第i个预测轨迹片段的主观评价;Yi为客观评估序列中对第i个预测轨迹片段的客观评价;
S22、截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;所述尾部轨迹片段与所述首个预测轨迹片段长度相同;
S23、根据主观评估与客观评估的相似度S及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度W:
Figure BDA0002842480930000032
其中,β1为对从正向途径推导的置信度的修正因子;W1为基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从正向途径推导的置信度;β2对从逆向途径推导的置信度的修正因子;W2基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从逆向途径推导的置信度;δ为对首个预测轨迹片段与最后一个预测轨迹片段的相似度的修正因子;P为预测轨迹信息的首个预测轨迹片段与最后一个预测轨迹片段的相似度;λ为预测轨迹信息中从首个预测轨迹片段到最后一个预测轨迹片段的置信度的衰减参数;W0为尾部轨迹片段与首个预测轨迹片段的最大置信度;q为截取的尾部轨迹片段为有效值的概率。
根据本发明的一些实施例,所述根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系,包括:
确定目标球体在各个时刻的场景信息与所述位置信息的关联度,根据所述关联度的大小确定各个时刻的评估参数;
根据所述评估参数生成对目标球体的轨迹信息的评估体系。
根据本发明的一些实施例,在将目标球体的轨迹信息输入所述第二RNN模型前,还包括:计算所述轨迹信息的信噪比,并判断是否大于预设信噪比阈值,在确定所述信噪比小于预设信噪比阈值时,对所述轨迹信息进行降噪处理。
为达到上述目的,本发明第二方面实施例提出了一种基于深度轨迹预测的多目标跟踪系统,包括:
读取模块,用于在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;
轨迹信息获取模块,用于对所述图像信息进行目标识别,获取球体的运动规律及球体颜色空间分布;根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;
构建模型模块,用于根据所述轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;
优化模型模块,用于对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;
预测轨迹信息获取模块,用于获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
根据本发明的一些实施例,还包括:
检测模块,用于计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整;
提取模块,用于在确定所述目标球体的轨迹信息完整时,对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,进而获取目标球体在各个时刻的场景信息及位置信息;
评估体系生成模块,用于根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;
更新模块,用于根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
根据本发明的一些实施例,还包括:
判断模块,用于在确定所述目标球体的轨迹信息不完整时,对目标视频进行重新解析,判断是否增加新的轨迹片段;
信息融合模块,用于在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,并计算匹配度,基于单个新的轨迹片段,获取最高匹配度对应的轨迹信息及所述轨迹信息对应的目标球体,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
根据本发明的一些实施例,所述检测模块计算预测轨迹信息的置信度,包括:
S21、将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,计算主观评估与客观评估的相似度S:
Figure BDA0002842480930000061
其中,Xi为主观评估序列中对第i个预测轨迹片段的主观评价;Yi为客观评估序列中对第i个预测轨迹片段的客观评价;
S22、截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;所述尾部轨迹片段与所述首个预测轨迹片段长度相同;
S23、根据主观评估与客观评估的相似度S及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度W:
Figure BDA0002842480930000071
其中,β1为对从正向途径推导的置信度的修正因子;W1为基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从正向途径推导的置信度;β2对从逆向途径推导的置信度的修正因子;W2基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从逆向途径推导的置信度;δ为对首个预测轨迹片段与最后一个预测轨迹片段的相似度的修正因子;P为预测轨迹信息的首个预测轨迹片段与最后一个预测轨迹片段的相似度;λ为预测轨迹信息中从首个预测轨迹片段到最后一个预测轨迹片段的置信度的衰减参数;W0为尾部轨迹片段与首个预测轨迹片段的最大置信度;q为截取的尾部轨迹片段为有效值的概率。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是根据本发明一个实施例的一种基于深度轨迹预测的多目标跟踪方法的流程图;
图2是根据本发明一个实施例的一种基于深度轨迹预测的多目标跟踪系统的框图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
如图1所示,本发明第一方面实施例提出了一种基于深度轨迹预测的多目标跟踪方法,包括:
S1、在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;
S2、对所述图像信息进行目标识别,获取球体的运动规律及球体颜色空间分布;根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;
S3、根据所述轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;
S4、对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;
S5、获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
上述技术方案的工作原理:在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;对所述图像信息进行目标识别,即识别图像中的球体的相关信息,如球体的运动规律及球体颜色空间分布,在多个球体的场景中会发生刚体碰撞,根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;采取大量的球体的轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;在发生刚性球体碰撞后,根据碰撞能量的衰减规律及各个刚性球体碰撞的顺序,角度,力度等信息对模型进行优化处理。获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
上述技术方案的有益效果:提出了分层的多信息融合算法,充分利用刚性球体的运动规律,刚体碰撞的物理模型以及球体颜色空间分布等信息实现多球体的轨迹跟踪,进行RNN轨迹建模及融合,同时通过分层的处理策略有效降低运算开销,达到了高帧率实时处理的目的;同时通过深度学习轨迹建模,可以有效预测和拟合运动球体的行进路线,提高对多目标轨迹跟踪的准确性。
根据本发明的一些实施例,所述输出预测轨迹信息后,还包括:
计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整;
在确定所述目标球体的轨迹信息完整时,对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,进而获取目标球体在各个时刻的场景信息及位置信息;
根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;
根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
上述技术方案的工作原理:在输出预测轨迹信息后,对预测轨迹信息进行检测,具体的,计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,表示输出的预测轨迹信息不准确,此时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整,首先判断输入轨迹信息的准确性及完整性,在确定所述目标球体的轨迹信息完整时,排除输入的轨迹信息的影响;对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,特征参数如目标球体的某一时刻的位置,与其他球体的距离及碰撞关系等,进而获取目标球体在各个时刻的场景信息及位置信息;根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
上述技术方案的有益效果:实现对第二RNN模型中的预测轨迹函数的更新,保证输出的预测轨迹信息的准确性。
根据本发明的一些实施例,在确定所述目标球体的轨迹信息不完整时,对目标视频进行重新解析,判断是否增加新的轨迹片段;
在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,并计算匹配度,基于单个新的轨迹片段,获取最高匹配度对应的轨迹信息及所述轨迹信息对应的目标球体,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
上述技术方案的工作原理:在确定所述目标球体的轨迹信息不完整时,表示输入的轨迹信息影响输出预测轨迹信息的准确性,对目标视频进行重新解析,判断是否增加新的轨迹片段;在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,示例的,新的轨迹片段包括轨迹片段A,分别计算轨迹片段A与轨迹信息B、轨迹信息C的匹配度,得到匹配度a,匹配度b;匹配度b大于匹配度a,故轨迹片段A与轨迹信息C更加匹配,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
上述技术方案的有益效果:对目标球体的轨迹信息进行有效的融合,保证轨迹信息的完整性,保证输入模型变量的准确性。
根据本发明的一些实施例,所述计算预测轨迹信息的置信度,包括:
S21、将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,计算主观评估与客观评估的相似度S:
Figure BDA0002842480930000111
其中,Xi为主观评估序列中对第i个预测轨迹片段的主观评价;Yi为客观评估序列中对第i个预测轨迹片段的客观评价;
S22、截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;所述尾部轨迹片段与所述首个预测轨迹片段长度相同;
S23、根据主观评估与客观评估的相似度S及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度W:
Figure BDA0002842480930000121
其中,β1为对从正向途径推导的置信度的修正因子;W1为基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从正向途径推导的置信度;β2对从逆向途径推导的置信度的修正因子;W2基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从逆向途径推导的置信度;δ为对首个预测轨迹片段与最后一个预测轨迹片段的相似度的修正因子;P为预测轨迹信息的首个预测轨迹片段与最后一个预测轨迹片段的相似度;λ为预测轨迹信息中从首个预测轨迹片段到最后一个预测轨迹片段的置信度的衰减参数;W0为尾部轨迹片段与首个预测轨迹片段的最大置信度;q为截取的尾部轨迹片段为有效值的概率。
上述技术方案的工作原理及有益效果:将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;根据主观评估与客观评估的相似度及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度,提高计算出的置信度的准确性。通过对各个预测轨迹片段进行主观评估及客观评估,实现准确评估,基于欧氏距离计算主观评估与客观评估的相似度,表征两者之间的异同,实现对预测轨迹片段的准确评估。
根据本发明的一些实施例,所述根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系,包括:
确定目标球体在各个时刻的场景信息与所述位置信息的关联度,根据所述关联度的大小确定各个时刻的评估参数;
根据所述评估参数生成对目标球体的轨迹信息的评估体系。
上述技术方案的工作原理:确定目标球体在各个时刻的场景信息与所述位置信息的关联度,根据所述关联度的大小确定各个时刻的评估参数;根据所述评估参数生成对目标球体的轨迹信息的评估体系。
上述技术方案的有益效果:使得构建的评估体系更加准确,进而实现对第二RNN模型中的预测轨迹函数准确更新。
根据本发明的一些实施例,在将目标球体的轨迹信息输入所述第二RNN模型前,还包括:计算所述轨迹信息的信噪比,并判断是否大于预设信噪比阈值,在确定所述信噪比小于预设信噪比阈值时,对所述轨迹信息进行降噪处理。
上述技术方案的有益效果:消除输入第二RNN模型的轨迹信息中的噪声,保证输入变量的准确性,进而提高输出的预测轨迹信息的准确性。
如图2所示,本发明第二方面实施例提出了一种基于深度轨迹预测的多目标跟踪系统,包括:
读取模块,用于在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;
轨迹信息获取模块,用于对所述图像信息进行目标识别,获取球体的运动规律及球体颜色空间分布;根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;
构建模型模块,用于根据所述轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;
优化模型模块,用于对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;
预测轨迹信息获取模块,用于获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
上述技术方案的工作原理:读取模块在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;轨迹信息获取模块对所述图像信息进行目标识别,即识别图像中的球体的相关信息,如球体的运动规律及球体颜色空间分布,在多个球体的场景中会发生刚体碰撞,根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;构建模型模块采取大量的球体的轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;优化模型模块对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;在发生刚性球体碰撞后,根据碰撞能量的衰减规律及各个刚性球体碰撞的顺序,角度,力度等信息对模型进行优化处理。预测轨迹信息获取模块获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
上述技术方案的有益效果:提出了分层的多信息融合算法,充分利用刚性球体的运动规律,刚体碰撞的物理模型以及球体颜色空间分布等信息实现多球体的轨迹跟踪,进行RNN轨迹建模及融合,同时通过分层的处理策略有效降低运算开销,达到了高帧率实时处理的目的;同时通过深度学习轨迹建模,可以有效预测和拟合运动球体的行进路线,提高对多目标轨迹跟踪的准确性。
根据本发明的一些实施例,还包括:
检测模块,用于计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整;
提取模块,用于在确定所述目标球体的轨迹信息完整时,对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,进而获取目标球体在各个时刻的场景信息及位置信息;
评估体系生成模块,用于根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;
更新模块,用于根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
上述技术方案的工作原理:检测模块在输出预测轨迹信息后,对预测轨迹信息进行检测,具体的,计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,表示输出的预测轨迹信息不准确,此时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整,首先判断输入轨迹信息的准确性及完整性,提取模块在确定所述目标球体的轨迹信息完整时,排除输入的轨迹信息的影响;对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,特征参数如目标球体的某一时刻的位置,与其他球体的距离及碰撞关系等,进而获取目标球体在各个时刻的场景信息及位置信息;评估体系生成模块根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;更新模块根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
上述技术方案的有益效果:实现对第二RNN模型中的预测轨迹函数的更新,保证输出的预测轨迹信息的准确性。
根据本发明的一些实施例,还包括:
判断模块,用于在确定所述目标球体的轨迹信息不完整时,对目标视频进行重新解析,判断是否增加新的轨迹片段;
信息融合模块,用于在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,并计算匹配度,基于单个新的轨迹片段,获取最高匹配度对应的轨迹信息及所述轨迹信息对应的目标球体,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
上述技术方案的工作原理:判断模块在确定所述目标球体的轨迹信息不完整时,表示输入的轨迹信息影响输出预测轨迹信息的准确性,对目标视频进行重新解析,判断是否增加新的轨迹片段;信息融合模块在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,示例的,新的轨迹片段包括轨迹片段A,分别计算轨迹片段A与轨迹信息B、轨迹信息C的匹配度,得到匹配度a,匹配度b;匹配度b大于匹配度a,故轨迹片段A与轨迹信息C更加匹配,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
上述技术方案的有益效果:对目标球体的轨迹信息进行有效的融合,保证轨迹信息的完整性,保证输入模型变量的准确性。
根据本发明的一些实施例,所述检测模块计算预测轨迹信息的置信度,包括:
S21、将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,计算主观评估与客观评估的相似度S:
Figure BDA0002842480930000171
其中,Xi为主观评估序列中对第i个预测轨迹片段的主观评价;Yi为客观评估序列中对第i个预测轨迹片段的客观评价;
S22、截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;所述尾部轨迹片段与所述首个预测轨迹片段长度相同;
S23、根据主观评估与客观评估的相似度S及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度W:
Figure BDA0002842480930000181
其中,β1为对从正向途径推导的置信度的修正因子;W1为基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从正向途径推导的置信度;β2对从逆向途径推导的置信度的修正因子;W2基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从逆向途径推导的置信度;δ为对首个预测轨迹片段与最后一个预测轨迹片段的相似度的修正因子;P为预测轨迹信息的首个预测轨迹片段与最后一个预测轨迹片段的相似度;λ为预测轨迹信息中从首个预测轨迹片段到最后一个预测轨迹片段的置信度的衰减参数;W0为尾部轨迹片段与首个预测轨迹片段的最大置信度;q为截取的尾部轨迹片段为有效值的概率。
上述技术方案的工作原理及有益效果:检测模块将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;根据主观评估与客观评估的相似度及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度,提高计算出的置信度的准确性。通过对各个预测轨迹片段进行主观评估及客观评估,实现准确评估,基于欧氏距离计算主观评估与客观评估的相似度,表征两者之间的异同,实现对预测轨迹片段的准确评估。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种基于深度轨迹预测的多目标跟踪方法,其特征在于,包括:
S1、在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;
S2、对所述图像信息进行目标识别,获取球体的运动规律及球体颜色空间分布;根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;
S3、根据所述轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;
S4、对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;
S5、获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
2.如权利要求1所述的基于深度轨迹预测的多目标跟踪方法,其特征在于,所述输出预测轨迹信息后,还包括:
计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整;
在确定所述目标球体的轨迹信息完整时,对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,进而获取目标球体在各个时刻的场景信息及位置信息;
根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;
根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
3.如权利要求2所述的基于深度轨迹预测的多目标跟踪方法,其特征在于,在确定所述目标球体的轨迹信息不完整时,对目标视频进行重新解析,判断是否增加新的轨迹片段;
在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,并计算匹配度,基于单个新的轨迹片段,获取最高匹配度对应的轨迹信息及所述轨迹信息对应的目标球体,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
4.如权利要求2所述的基于深度轨迹预测的多目标跟踪方法,其特征在于,所述计算预测轨迹信息的置信度,包括:
S21、将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,计算主观评估与客观评估的相似度S:
Figure FDA0002842480920000021
其中,Xi为主观评估序列中对第i个预测轨迹片段的主观评价;Yi为客观评估序列中对第i个预测轨迹片段的客观评价;
S22、截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;所述尾部轨迹片段与所述首个预测轨迹片段长度相同;
S23、根据主观评估与客观评估的相似度S及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度W:
Figure FDA0002842480920000031
其中,β1为对从正向途径推导的置信度的修正因子;W1为基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从正向途径推导的置信度;β2对从逆向途径推导的置信度的修正因子;W2基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从逆向途径推导的置信度;δ为对首个预测轨迹片段与最后一个预测轨迹片段的相似度的修正因子;P为预测轨迹信息的首个预测轨迹片段与最后一个预测轨迹片段的相似度;λ为预测轨迹信息中从首个预测轨迹片段到最后一个预测轨迹片段的置信度的衰减参数;W0为尾部轨迹片段与首个预测轨迹片段的最大置信度;q为截取的尾部轨迹片段为有效值的概率。
5.如权利要求2所述的基于深度轨迹预测的多目标跟踪方法,其特征在于,所述根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系,包括:
确定目标球体在各个时刻的场景信息与所述位置信息的关联度,根据所述关联度的大小确定各个时刻的评估参数;
根据所述评估参数生成对目标球体的轨迹信息的评估体系。
6.如权利要求1所述的基于深度轨迹预测的多目标跟踪方法,其特征在于,在将目标球体的轨迹信息输入所述第二RNN模型前,还包括:计算所述轨迹信息的信噪比,并判断是否大于预设信噪比阈值,在确定所述信噪比小于预设信噪比阈值时,对所述轨迹信息进行降噪处理。
7.一种基于深度轨迹预测的多目标跟踪系统,其特征在于,包括:
读取模块,用于在预设监控区域内拍摄球体的监控视频,基于所述监控视频进行分帧处理,读取监控视频中的图像信息;
轨迹信息获取模块,用于对所述图像信息进行目标识别,获取球体的运动规律及球体颜色空间分布;根据球体的运动规律、球体颜色空间分布及预先构建的球体之间刚体碰撞的物理模型,生成球体的轨迹信息;
构建模型模块,用于根据所述轨迹信息构建基于深度学习的第一RNN模型,并对所述第一RNN模型进行训练;
优化模型模块,用于对训练好的第一RNN模型,融合碰撞能量衰减的贪婪多目标关联进行模型优化处理,得到第二RNN模型;
预测轨迹信息获取模块,用于获取目标视频,对所述目标视频进行解析,提取目标视频中的目标球体的轨迹信息;将目标球体的轨迹信息输入所述第二RNN模型中,输出预测轨迹信息,得到对目标球体的跟踪结果。
8.如权利要求7所述的基于深度轨迹预测的多目标跟踪系统,其特征在于,还包括:
检测模块,用于计算预测轨迹信息的置信度,在确定所述置信度小于预设置信度时,检测输入所述第二RNN模型的目标球体的轨迹信息是否完整;
提取模块,用于在确定所述目标球体的轨迹信息完整时,对目标视频中的目标图像信息进行读取,提取目标球体在各个时刻的特征参数,进而获取目标球体在各个时刻的场景信息及位置信息;
评估体系生成模块,用于根据目标球体在各个时刻的场景信息及位置信息,生成对目标球体的轨迹信息的评估体系;
更新模块,用于根据所述评估体系更新所述第二RNN模型中的预测轨迹函数。
9.如权利要求8所述的基于深度轨迹预测的多目标跟踪系统,其特征在于,还包括:
判断模块,用于在确定所述目标球体的轨迹信息不完整时,对目标视频进行重新解析,判断是否增加新的轨迹片段;
信息融合模块,用于在确定增加新的轨迹片段时,将新的轨迹片段分别与之前提取的多个轨迹信息进行匹配,并计算匹配度,基于单个新的轨迹片段,获取最高匹配度对应的轨迹信息及所述轨迹信息对应的目标球体,将所述目标球体的轨迹信息与新的轨迹片段进行信息融合处理,生成新的轨迹信息。
10.如权利要求7所述的基于深度轨迹预测的多目标跟踪系统,其特征在于,所述检测模块计算预测轨迹信息的置信度,包括:
S21、将预测轨迹信息分为N个预测轨迹片段,对所述N个预测轨迹片段分别进行主观评估及客观评估,计算主观评估与客观评估的相似度S:
Figure FDA0002842480920000061
其中,Xi为主观评估序列中对第i个预测轨迹片段的主观评价;Yi为客观评估序列中对第i个预测轨迹片段的客观评价;
S22、截取目标球体的轨迹信息的尾部轨迹片段,将所述尾部轨迹片段与预测轨迹信息的首个预测轨迹片段进行关联性分析,确定尾部轨迹片段与首个预测轨迹片段的最大置信度;所述尾部轨迹片段与所述首个预测轨迹片段长度相同;
S23、根据主观评估与客观评估的相似度S及尾部轨迹片段与首个预测轨迹片段的最大置信度,计算预测轨迹信息的置信度W:
Figure FDA0002842480920000062
其中,β1为对从正向途径推导的置信度的修正因子;W1为基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从正向途径推导的置信度;β2对从逆向途径推导的置信度的修正因子;W2基于尾部轨迹片段与首个预测轨迹片段的最大置信度对预测轨迹信息从逆向途径推导的置信度;δ为对首个预测轨迹片段与最后一个预测轨迹片段的相似度的修正因子;P为预测轨迹信息的首个预测轨迹片段与最后一个预测轨迹片段的相似度;λ为预测轨迹信息中从首个预测轨迹片段到最后一个预测轨迹片段的置信度的衰减参数;W0为尾部轨迹片段与首个预测轨迹片段的最大置信度;q为截取的尾部轨迹片段为有效值的概率。
CN202011497005.1A 2020-12-17 2020-12-17 一种基于深度轨迹预测的多目标跟踪方法及系统 Active CN112529941B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011497005.1A CN112529941B (zh) 2020-12-17 2020-12-17 一种基于深度轨迹预测的多目标跟踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011497005.1A CN112529941B (zh) 2020-12-17 2020-12-17 一种基于深度轨迹预测的多目标跟踪方法及系统

Publications (2)

Publication Number Publication Date
CN112529941A true CN112529941A (zh) 2021-03-19
CN112529941B CN112529941B (zh) 2021-08-31

Family

ID=75001068

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011497005.1A Active CN112529941B (zh) 2020-12-17 2020-12-17 一种基于深度轨迹预测的多目标跟踪方法及系统

Country Status (1)

Country Link
CN (1) CN112529941B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114821812A (zh) * 2022-06-24 2022-07-29 西南石油大学 一种基于深度学习的花样滑冰选手骨骼点动作识别方法
US20230033548A1 (en) * 2021-07-26 2023-02-02 Manpreet Singh TAKKAR Systems and methods for performing computer vision task using a sequence of frames

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102426391A (zh) * 2011-09-05 2012-04-25 华南理工大学 一种判断机器人运行是否发生碰撞的方法
CN103048658A (zh) * 2012-11-10 2013-04-17 中国人民解放军海军航空工程学院 基于径向加速度的RA-Singer-EKF机动目标跟踪算法
CN104391281A (zh) * 2014-11-21 2015-03-04 武汉大学 提高天波雷达海面船舶目标跟踪定位精度的方法
CN105224807A (zh) * 2015-10-14 2016-01-06 东软集团股份有限公司 病例审核规则提取方法及装置,病例审核方法及系统
CN105233483A (zh) * 2014-07-02 2016-01-13 精工爱普生株式会社 运动分析方法以及运动分析装置
WO2016112166A1 (en) * 2015-01-07 2016-07-14 Northeastern University Ultrasonic multiplexing network for implantable medical devices
CN106022239A (zh) * 2016-05-13 2016-10-12 电子科技大学 一种基于循环神经网络的多目标跟踪方法
CN107169989A (zh) * 2017-04-17 2017-09-15 南京邮电大学 一种基于数据关联与轨迹评估的多目标跟踪方法
CN107330920A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于深度学习的监控视频多目标追踪方法
CN108322969A (zh) * 2018-01-23 2018-07-24 上海康斐信息技术有限公司 一种用于可穿戴设备的发光控制方法、可穿戴设备
CN108324282A (zh) * 2018-01-31 2018-07-27 北京工业大学 一种人体肩部盂肱关节旋转中心运动信息检测系统
CN109147398A (zh) * 2018-09-13 2019-01-04 四川九洲空管科技有限责任公司 一种机载防撞系统目标监视跟踪性能优化方法
CN109470235A (zh) * 2018-10-23 2019-03-15 浙江大学 一种基于动态簇的水下多传感器协作被动跟踪方法
CN110045002A (zh) * 2019-05-14 2019-07-23 南昌航空大学 磁声发射信号无量纲特征参数提取方法
CN110135500A (zh) * 2019-05-17 2019-08-16 南京大学 一种基于自适应深度特征滤波器的多场景下目标跟踪方法
CN110728698A (zh) * 2019-09-30 2020-01-24 天津大学 一种基于复合循环神经网络系统的多目标跟踪模型
US10575113B2 (en) * 2013-07-16 2020-02-25 The Trustees Of The University Of Pennsylvania Sound propagation and perception for autonomous agents in dynamic environments
CN111133453A (zh) * 2017-08-04 2020-05-08 诺基亚技术有限公司 人工神经网络
CN111540009A (zh) * 2020-04-23 2020-08-14 北京字节跳动网络技术有限公司 用于生成检测信息的方法、装置、电子设备和介质
CN111797479A (zh) * 2019-04-09 2020-10-20 辉达公司 使用计算机对对象的反应进行建模以模拟物理交互
CN112052587A (zh) * 2020-09-02 2020-12-08 中国人民解放军陆军工程大学 砂土垫层的三维细观离散体模型密实方法

Patent Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102426391A (zh) * 2011-09-05 2012-04-25 华南理工大学 一种判断机器人运行是否发生碰撞的方法
CN103048658A (zh) * 2012-11-10 2013-04-17 中国人民解放军海军航空工程学院 基于径向加速度的RA-Singer-EKF机动目标跟踪算法
US10575113B2 (en) * 2013-07-16 2020-02-25 The Trustees Of The University Of Pennsylvania Sound propagation and perception for autonomous agents in dynamic environments
CN105233483A (zh) * 2014-07-02 2016-01-13 精工爱普生株式会社 运动分析方法以及运动分析装置
CN104391281A (zh) * 2014-11-21 2015-03-04 武汉大学 提高天波雷达海面船舶目标跟踪定位精度的方法
WO2016112166A1 (en) * 2015-01-07 2016-07-14 Northeastern University Ultrasonic multiplexing network for implantable medical devices
CN105224807A (zh) * 2015-10-14 2016-01-06 东软集团股份有限公司 病例审核规则提取方法及装置,病例审核方法及系统
CN106022239A (zh) * 2016-05-13 2016-10-12 电子科技大学 一种基于循环神经网络的多目标跟踪方法
CN107169989A (zh) * 2017-04-17 2017-09-15 南京邮电大学 一种基于数据关联与轨迹评估的多目标跟踪方法
CN107330920A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于深度学习的监控视频多目标追踪方法
CN111133453A (zh) * 2017-08-04 2020-05-08 诺基亚技术有限公司 人工神经网络
CN108322969A (zh) * 2018-01-23 2018-07-24 上海康斐信息技术有限公司 一种用于可穿戴设备的发光控制方法、可穿戴设备
CN108324282A (zh) * 2018-01-31 2018-07-27 北京工业大学 一种人体肩部盂肱关节旋转中心运动信息检测系统
CN109147398A (zh) * 2018-09-13 2019-01-04 四川九洲空管科技有限责任公司 一种机载防撞系统目标监视跟踪性能优化方法
CN109470235A (zh) * 2018-10-23 2019-03-15 浙江大学 一种基于动态簇的水下多传感器协作被动跟踪方法
CN111797479A (zh) * 2019-04-09 2020-10-20 辉达公司 使用计算机对对象的反应进行建模以模拟物理交互
CN110045002A (zh) * 2019-05-14 2019-07-23 南昌航空大学 磁声发射信号无量纲特征参数提取方法
CN110135500A (zh) * 2019-05-17 2019-08-16 南京大学 一种基于自适应深度特征滤波器的多场景下目标跟踪方法
CN110728698A (zh) * 2019-09-30 2020-01-24 天津大学 一种基于复合循环神经网络系统的多目标跟踪模型
CN111540009A (zh) * 2020-04-23 2020-08-14 北京字节跳动网络技术有限公司 用于生成检测信息的方法、装置、电子设备和介质
CN112052587A (zh) * 2020-09-02 2020-12-08 中国人民解放军陆军工程大学 砂土垫层的三维细观离散体模型密实方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DAKSH VARSHNEYA 等: "Human Trajectory Prediction using Spatially aware Deep Attention Models", 《ARXIV:1705.09436V1 [CS.LG]》 *
KARTTIKEYA MANGALAM 等: "Disentangling Human Dynamics for Pedestrian Locomotion Forecasting with Noisy Supervision", 《ARXIV:1911.01138V2 [CS.CV]》 *
YANYU XU 等: "Encoding Crowd Interaction with Deep Neural Network for Pedestrian Trajectory Prediction", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
YU ZHANG 等: "Channel Estimation for Massive MIMO-OFDM Systems by Tracking the Joint Angle-Delay Subspace", 《DIGITAL OBJECT IDENTIFIER》 *
康一梅 等: "基于改进蚁群算法的火源定位策略研究", 《计算机工程与应用》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230033548A1 (en) * 2021-07-26 2023-02-02 Manpreet Singh TAKKAR Systems and methods for performing computer vision task using a sequence of frames
CN114821812A (zh) * 2022-06-24 2022-07-29 西南石油大学 一种基于深度学习的花样滑冰选手骨骼点动作识别方法
CN114821812B (zh) * 2022-06-24 2022-09-13 西南石油大学 一种基于深度学习的花样滑冰选手骨骼点动作识别方法

Also Published As

Publication number Publication date
CN112529941B (zh) 2021-08-31

Similar Documents

Publication Publication Date Title
CN110084831B (zh) 基于YOLOv3多伯努利视频多目标检测跟踪方法
Chen et al. Enhancing detection model for multiple hypothesis tracking
CN110660083A (zh) 一种结合视频场景特征感知的多目标跟踪方法
CN112529941B (zh) 一种基于深度轨迹预测的多目标跟踪方法及系统
CN110633643A (zh) 一种面向智慧社区的异常行为检测方法及系统
CN107403175A (zh) 一种运动背景下的视觉跟踪方法及视觉跟踪系统
CN106169188A (zh) 一种基于蒙特卡洛树搜索的对象跟踪方法
CN110781785A (zh) 基于Faster RCNN算法改进的交通场景下行人检测方法
CN113327272B (zh) 一种基于相关滤波的鲁棒性长时跟踪方法
CN107622507B (zh) 一种基于深度学习的空中目标跟踪方法
CN103456009B (zh) 目标检测方法与装置、监控系统
CN105809718A (zh) 一种轨迹熵最小化的对象跟踪方法
CN109543615A (zh) 一种基于多级特征的双学习模型目标跟踪方法
CN109697727A (zh) 基于相关滤波和度量学习的目标跟踪方法、系统及存储介质
CN116008936A (zh) 一种基于毫米波雷达的人体轨迹跟踪检测方法
Lu et al. An efficient network for multi-scale and overlapped wildlife detection
CN111639570A (zh) 一种基于运动模型和单目标线索的在线多目标跟踪方法
CN115631216B (zh) 一种基于多特征滤波器融合的云台目标跟踪系统和方法
CN112307897A (zh) 一种社区监控场景下基于局部特征识别和邻帧匹配的宠物跟踪方法
CN111161323A (zh) 一种基于相关滤波的复杂场景目标跟踪方法及系统
Liu et al. Multipedestrian online tracking based on social force-predicted deformable key-points mapping via compressive sensing
CN112597922B (zh) 一种基于无碰撞lstm的多目标轨迹预测方法
CN110675430A (zh) 一种基于运动和表观适应融合的无人机多目标跟踪方法
CN114764820A (zh) 一种基于对比度的红外弱小目标检测、跟踪方法和系统
Lukežič et al. Performance evaluation methodology for long-term visual object tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 518000 Room 201, building 4, software industry base, No. 19, 17 and 18, Haitian 1st Road, Binhai community, Yuehai street, Nanshan District, Shenzhen, Guangdong

Patentee after: Shenzhen qidebao Technology Co.,Ltd.

Address before: 518000 1705, satellite building, 61 Gaoxin South 9th Road, Gaoxin high tech Zone community, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province

Patentee before: Shenzhen Puhui Zhilian Technology Co.,Ltd.