CN110728698B - 一种基于复合循环神经网络系统的多目标跟踪系统 - Google Patents
一种基于复合循环神经网络系统的多目标跟踪系统 Download PDFInfo
- Publication number
- CN110728698B CN110728698B CN201910941298.9A CN201910941298A CN110728698B CN 110728698 B CN110728698 B CN 110728698B CN 201910941298 A CN201910941298 A CN 201910941298A CN 110728698 B CN110728698 B CN 110728698B
- Authority
- CN
- China
- Prior art keywords
- tracking
- network
- moment
- target
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开基于复合循环神经网络系统的多目标跟踪系统,是基于RNN和GRU构成的复合循环神经网络系统的多目标跟踪网络模型,采用边界框标注被跟踪对象,所述复合循环神经网络系统包括基于RNN的目标检测单元、基于GRU的跟踪管理单元以及基于GRU的数据关联单元。本发明提出的基于RNN与GRU的多目标跟踪网络模型是一种端对端的多目标跟踪架构,相对于传统方法,简化了参数调整过程及要求,本发明在不同光照条件,频繁遮挡,目标间相互影响及表观相似等复杂环境条件下,均有较好的跟踪效果。
Description
技术领域
本发明涉及计算机视觉技术领域,特别是涉及一种基于复合循环神经网络系统的多目标跟踪系统。
背景技术
多目标跟踪,即Multiple Object Tracking(MOT),是给定一个图像序列,找到图像序列中运动的物体,并将不同帧中的运动物体一一对应(Identity),然后给出不同物体的运动轨迹。多目标跟踪的理想的评价指标需满足下述要求:所有出现的目标都要能够及时找到,找到目标位置要尽可能可真实目标位置一致,保持追踪一致性,避免跟踪目标的跳变。目前的多目标跟踪技术的跟踪结果的准确度尚需要进一步的提升。
发明内容
本发明的目的是提供一种基于复合循环神经网络系统的多目标跟踪系统,是一种行人多目标跟踪方法,以克服现有技术中和多目标跟踪算法或模型复杂度高,需要频繁参数调整,跟踪结果不够准确的等技术缺点,以实现在线的端到端的多目标跟踪过程。
为实现本发明的目的所采用的技术方案是:
一种基于复合循环神经网络系统的多目标跟踪系统,是基于RNN和GRU构成的复合循环神经网络系统的多目标跟踪网络模型,采用边界框标注被跟踪对象,所述复合循环神经网络系统包括基于RNN的目标检测单元、基于GRU的跟踪管理单元以及基于GRU的数据关联单元,所述多目标跟踪网络模型采用以下步骤处理待测视频数据:
RNN的目标检测单元,输出t时刻对待测视频数据集vt的图像的检测结果集αt={ait}A,ait为t时刻视频帧中检测到的第i个对象,A为至t时刻累计检测到的对象集;
基于GRU的跟踪管理单元,输出t时刻对视频帧中各目标的跟踪结果集βt={bjt}B,bjt为t时刻相应视频帧中被跟踪的第j个对象,B为t时刻相应视频帧中对象的合集;以及,根据上述检测结果集以及跟踪结果集,计算数据关联的相似矩阵Ct=[c(ij)t]A×B,其中C(ij)t是ait与bjt间的欧式距离,C(ij)t=||ait-bjt||2;
基于GRU的数据关联单元,以t时刻的相似矩阵Ct中的子元素c(ij)t为输入,输出结果为t时刻相应图像帧中第j个跟踪结果与当前任一检测结果i间的匹配概率向量a(ij)t,表示t时刻第j个跟踪目标和第i个检测结果间的匹配概率,且∑a(ij)t=1并构成概率向量At,匹配概率最大的目标检测结果视为t时刻相应目标的跟踪结果。
其中,所述基于RNN和GRU构成的复合循环神经网络系统的多目标跟踪网络模型的损失函数如下:
其中ht=∑hlt,分别为复合循环网络系统t时刻的隐藏层状态和t-1预算的t时刻的隐藏层状态,x1,x2,x3,x4为权重值,在网络训练过程中的每次迭代过程进行更新,以使损失最小,N为t时刻检测到的目标总数,M为t时刻跟踪结果数目,D为目标的位置种类信息,D=4。
其中,将训练集数据输入模型进行网络训练,训练过程视为以下两步骤的迭代过程:步骤一是基于预设鉴别网络学习率超参数值,利用梯度下降法更新鉴别网络结点参数值,生成网络结点参数值保持不变;步骤二是基于预设生成网络学习率超参数值,利用梯度下降法更新生成网络结点参数值,鉴别网络结点参数值保持不变;训练迭代过程为:执行步骤1多次后,执行步骤2一次,重复该迭代过程,直至损失最小,训练完毕。
其中,模型的训练集数据通过对来自网络公共数据库的数据进行人工扩充和标注,以得到足够的训练样本集;其中标注过程为通过计算机脚本对视频帧中每个目标对象进行框选,并对不同目标加以编号。
其中,扩充数据集的方法包含以下两种方式:
(1)对来自网络公共数据库的视频数据集进行人工处理,人工处理的方法包括对视频图像的亮度及对比度进行调节,对行人对象及其运动轨迹进行镜像翻转、对视频图像进行随机平移、随机旋转;
(2)通过物理建模,建立基于网络公共视频数据集中行人对象的轨迹运动模型,即通过对所述视频数据集中行人运动轨迹的初始位置、平均运动速度、加速度三个变量估计其概率分布,然后通过对所述概率分布进行采样并模拟生成多个虚拟运动轨迹。
本发明提出的基于RNN与GRU的多目标跟踪网络模型是一种端对端的多目标跟踪架构,相对于传统方法,简化了参数调整过程及要求。
附图说明
图1为本发明的基于复合循环神经网络系统的多目标跟踪系统的跟踪信息处理的流程图;
图2为本发明的基于复合循环神经网络系统的多目标跟踪系统的网络结构图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明基于复合循环神经网络系统的多目标跟踪系统,通过以下的步骤予以实现:
步骤1:构建基于RNN和GRU的复合循环神经网络系统的多目标跟踪网络模型:所述复合循环神经网络系统包括基于m层(初始值设为300)RNN网络的目标检测单元,基于1层GRU网络的跟踪管理单元,基于n层(初始值设为400)GRU网络的数据关联单元。具体结构如图2所示,所述RNN与GRU网络每一网络层均有一个相应的隐藏层状态h,t-1时刻预算的t时刻的第l层隐藏层状态的前向传播算法如式(1)所示:
其中φ()为激活函数,xlt为当前隐藏层的输入,Ul、Wl为权值,bl为偏置。
具体的,所述多目标跟踪网络的跟踪信息处理过程包含以下步骤:
(1)所述目标检测单元,在t时刻对待测视频数据集的图像的检测结果集为αt={ait}A,ait为t时刻相应视频帧中检测到的第i个对象,A为至t时刻累计检测到的对象集;
(2)所述跟踪管理单元在t时刻对视频帧中各目标的跟踪结果集为βt={bjt}B,bjt为t时刻相应视频帧中被跟踪的第j个对象,B为t时刻相应视频帧中对象的合集;
(3)所述跟踪管理单元,根据上述检测结果及跟踪结果,计算数据关联的相似矩阵Ct,=[c(ij)t]A×B其中c(ij)t是ait与bjt间的欧式距离,其由公式(2)计算得来,
c(ij)t=||ait-bjt||2, (2)
(4)所述数据关联单元,以t时刻的相似矩阵Ct中的子元素c(ij)t为输入,输出结果为t时刻相应图像帧中第j个跟踪结果与当前所有检测结果间的匹配概率向量Ajt,其中A(ij)t是t时刻第j个跟踪目标和第i个检测结果间的匹配概率,且∑A(ij)t=1概率向量,匹配概率最大的目标检测结果视为t时刻相应目标的跟踪结果。
其中,所述基于RNN与GRU的多目标跟踪网络损失函数,由式(3)得到:
其中,ht=∑hlt,分别为复合循环网络系统t时刻的隐藏层状态和t-1预算的t时刻的隐藏层状态,x1,x2,x3,x4为权重值,在网络训练过程中的每次迭代过程进行更新,以使损失最小,N为t时刻检测到的目标总数,M为t时刻跟踪结果数目,D为目标的位置种类信息,所述多目标跟踪网络模型采用边界框标注被跟踪对象,故D取4。
步骤2:将训练集数据输入模型进行网络训练
训练过程视为以下两步骤的迭代过程:步骤一是基于预设鉴别网络学习率超参数值,利用梯度下降法更新鉴别网络结点参数值,生成网络结点参数值保持不变;步骤二是基于预设生成网络学习率超参数值,利用梯度下降法更新生成网络结点参数值,鉴别网络结点参数值保持不变。训练迭代过程为:执行步骤1多次后,执行步骤2一次,重复该迭代过程,直至损失最小,训练完毕。
其中,所述训练集数据需要对来自网络公共数据库的数据进行人工扩充和标注,以得到足够的训练样本集。标注过程为通过计算机脚本对视频帧中每个目标对象进行框选,并对不同目标加以编号;扩充数据集的方法包含以下两种方式:
(1)对来自网络公共数据库的视频数据集进行人工处理,人工处理的方法包括对视频图像的亮度及对比度进行调节,对行人对象及其运动轨迹进行镜像翻转、对视频图像进行随机平移、随机旋转等。
(2)通过物理建模,建立基于网络公共视频数据集中行人对象的轨迹运动模型,具体的,通过对所述视频数据集中行人运动轨迹的初始位置(在视频帧中首次出现的位置)、平均运动速度、加速度等三个变量估计其概率分布,然后通过对所述概率分布进行采样并模拟生成多个虚拟运动轨迹。
步骤3:网络性能评估:
将验证样本集输入步骤2中训练完成的网络模型中,测试评估网络性能,如果反馈的性能指标不佳,则调整超参数与各权重初始值,重复步骤2,重新训练网络及评估过程;
步骤4:将待测视频数据输入上述训练并评估后的多目标跟踪网络,进行前向传播,得到多个目标的运动轨迹及跟踪状态信息。
实施例:
步骤1:视频数据集构建及标注:
通过网络公共数据库获取包含大量行人内容的视频数据集,并以此为基础扩充并标注数据集,最终得到包含50,000个24帧的标注了所有行人位置的视频序列。具体地,扩充数据集的方法包含以下两种方式:
(1)对来自网络公共数据库的视频数据集进行人工处理,人工处理的方法包括对视频图像的亮度及对比度进行调节,对行人对象及其运动轨迹进行镜像翻转、对视频图像进行随机平移、随机旋转等。
(2)通过物理建模,建立基于网络公共视频数据集中行人对象的轨迹运动模型,具体的,通过对所述视频数据集中行人运动轨迹的初始位置(在视频帧中首次出现的位置)、平均运动速度、加速度等三个变量估计其概率分布,然后通过对所述概率分布进行采样并模拟生成多个虚拟运动轨迹。
进一步的,步骤1中所述的对视频数据集的标注是将监控视频数据中的每个行人对象在每帧中的位置标注出来。具体地,对每个行人对象进行框选,并对不同目标加以编号,以实现对视频数据集的标注过程。
步骤2:建立训练集与测试集:具体的,将步骤2所述的人工扩充后的数据集按比例随机划分为两部分,其中一部分作为训练样本集(训练集),用于模型训练,另一部分作为验证样本集(测试集),用于模型评估。将分好类的训练集和测试集;优选的,训练集和测试集均划分为10个样本组的视频序列。
步骤3:构建基于RNN和GRU的复合循环神经网络系统的多目标跟踪网络模型所述网络由基于m层RNN的目标检测,基于1层GRU的跟踪管理模块和和基于n层GRU的数据关联模块组成,其结构如图2所示。具体的,构建所述目标检测模块的RNN网络初始状态包含300个隐藏状态,构建所述跟踪管理模块的GRU网络包含1个隐藏状态,构建所述数据关联模块的GRU网络初始状态包含400个隐藏状态;
步骤4:多目标跟踪网络模型训练:将训练集数据输入模型进行网络训练。具体的,基于预设多目标评价指标阈值(MOTA=27%,MOTP=25%),网络学习率(初始学习率为0.0003)等超参数值和各权值系数(x1=0.40,x2=0.30,x3=0.15,x4=0.15,Ul=0.5,Wl=0.5,bl=0.0002),进行基于以下两步阶段的迭代的网络训练过程:利用梯度下降法更新优化权重及超参数,RNN与GRU网络的隐藏层参数保持不变;网络的各权重及超参数保持不变,调整RNN与GRU的隐藏层参数。重复上述迭代过程,最终实现损失函数的最小化,训练完毕。优选的,所述网络的超参数及各权值每2,000次迭代后调整5%,隐藏层±10,预设的最大迭代次数设置为200,000次;
步骤5:网络性能评估:将测试集输入步骤4中训练完成的网络模型中,测试评估网络性能,如果反馈的性能指标不佳,如果反馈的性能指标不佳,则调整步骤3、4中预设的初始值(性能评估指标阈值不变),重复步骤4,重新训练网络及评估过程;
步骤6:将待测视频数据输入训练后的多目标跟踪网络,进行前向传播,得到多个目标的运动轨迹及跟踪状态信息。
循环神经网络(RNN)是时序化运行的网络结构,在目标运动预测和状态更新等任务中有不俗的表现,核心是大小为h的隐藏状态,作为预测输出的主要控制机制,它的工作过程也具有时序化的特点。然而由于无法处理长期的时间依赖,RNN不能直接用于多目标跟踪的数据关联任务。基于RNN改进的长短期记忆网络(LSTM)弥补了其在此方面的不足。门级循环模组网络(GRU)是LSTM的一种简化衍生变体,理论上拥有较快的运行速度,因此,在本发明中利用门级循环模组网络(GRU)构成多目标跟踪的数据关联单元。循环神经网络RNN及其变种网络——LSTM、GRU等在处理数据关联过程,因其实时性和在线学习的特征,相较于涉及复杂模型及频繁的参数调整的传统方法,有着天然优势。
基于检测的多目标跟踪方法(Tracking by detection),将多目标跟踪过程按阶段分为多目标检测及预测和数据关联两个部分,能有效解决待检测及跟踪的目标数量的随机变化的问题
多目标跟踪量化指标包括跟踪准确度(MOTA)和跟踪精度(MOTP)这两个评价标准,前者指示结合了丢失目标,虚警率,标号转换之后的准确性,后者代表所有跟踪目标的平均边框重叠率。本发明针对基于RNN及其变种网络GRU的多目标跟踪网络模型的数据集的准备,提出了多种视频数据集扩充方法,有助于降低应用于网络模型的训练集和测试集的获取成本。
本发明提出的基于RNN与GRU的多目标跟踪网络模型是一种端对端的多目标跟踪架构,相对于传统方法,简化了参数调整过程及要求。
本发明在不同光照条件,频繁遮挡,目标间相互影响及表观相似等复杂环境条件下,均有较好的跟踪效果。
以上所述仅是本发明的优选实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (3)
1.一种基于复合循环神经网络系统的多目标跟踪系统,其特征在于,是基于RNN和GRU构成的复合循环神经网络系统的多目标跟踪网络模型,采用边界框标注被跟踪对象,所述复合循环神经网络系统包括基于RNN的目标检测单元、基于GRU的跟踪管理单元以及基于GRU的数据关联单元,所述多目标跟踪网络模型采用以下步骤处理待测视频数据:
RNN的目标检测单元,输出t时刻对待测视频数据集vt的图像的检测结果集αt={ait}A,ait为t时刻视频帧中检测到的第i个对象,A为至t时刻累计检测到的对象集;
基于GRU的跟踪管理单元,输出t时刻对视频帧中各目标的跟踪结果集βt={bjt}B,bjt为t时刻相应视频帧中被跟踪的第j个对象,B为t时刻相应视频帧中对象的合集;以及,根据上述检测结果集以及跟踪结果集,计算数据关联的相似矩阵Ct=[c(ij)t]A×B,其中c(ij)t是ait与bjt间的欧式距离,c(ij)t=||ait-bjt||2;
基于GRU的数据关联单元,以t时刻的相似矩阵Ct中的子元素c(ij)t为输入,输出结果为t时刻相应图像帧中第j个跟踪结果与当前任一检测结果i间的匹配概率向量a(ij)t,表示t时刻第j个跟踪目标和第i个检测结果间的匹配概率,且Σa(ij)t=1并构成概率向量At,匹配概率最大的目标检测结果视为t时刻相应目标的跟踪结果;
所述基于RNN和GRU构成的复合循环神经网络系统的多目标跟踪网络模型的损失函数如下:
其中ht=∑hlt, 分别为复合循环网络系统t时刻的隐藏层状态和t-1时刻预算的t时刻的隐藏层状态,x1,x2,x3,x4为权重值,在网络训练过程中的每次迭代过程进行更新,以使损失最小,N为t时刻检测到的目标总数,M为t时刻跟踪结果数目,D为目标的位置种类信息,D=4;
2.根据权利要求1所述基于复合循环神经网络系统的多目标跟踪系统,其特征在于,模型的训练集数据通过对来自网络公共数据库的数据进行人工扩充和标注,以得到足够的训练样本集;其中标注过程为通过计算机脚本对视频帧中每个目标对象进行框选,并对不同目标加以编号。
3.根据权利要求2所述基于复合循环神经网络系统的多目标跟踪系统,其特征在于,扩充数据集的方法包含以下两种方式:
(1)对来自网络公共数据库的视频数据集进行人工处理,人工处理的方法包括对视频图像的亮度及对比度进行调节,对行人对象及其运动轨迹进行镜像翻转、对视频图像进行随机平移、随机旋转;
(2)通过物理建模,建立基于网络公共视频数据集中行人对象的轨迹运动模型,即通过对所述视频数据集中行人运动轨迹的初始位置、平均运动速度、加速度三个变量估计其概率分布,然后通过对所述概率分布进行采样并模拟生成多个虚拟运动轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910941298.9A CN110728698B (zh) | 2019-09-30 | 2019-09-30 | 一种基于复合循环神经网络系统的多目标跟踪系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910941298.9A CN110728698B (zh) | 2019-09-30 | 2019-09-30 | 一种基于复合循环神经网络系统的多目标跟踪系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110728698A CN110728698A (zh) | 2020-01-24 |
CN110728698B true CN110728698B (zh) | 2023-05-16 |
Family
ID=69218621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910941298.9A Active CN110728698B (zh) | 2019-09-30 | 2019-09-30 | 一种基于复合循环神经网络系统的多目标跟踪系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110728698B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111651935B (zh) * | 2020-05-25 | 2023-04-18 | 成都千嘉科技股份有限公司 | 一种非平稳时间序列数据的多维度扩充预测方法与装置 |
CN111767847B (zh) * | 2020-06-29 | 2023-06-09 | 佛山市南海区广工大数控装备协同创新研究院 | 一种集成目标检测和关联的行人多目标跟踪方法 |
CN111862035B (zh) * | 2020-07-17 | 2023-07-28 | 平安科技(深圳)有限公司 | 光斑检测模型的训练方法、光斑检测方法、设备及介质 |
CN112578419B (zh) * | 2020-11-24 | 2023-12-12 | 南京邮电大学 | 一种基于gru网络和卡尔曼滤波的gps数据重构方法 |
CN112529941B (zh) * | 2020-12-17 | 2021-08-31 | 深圳市普汇智联科技有限公司 | 一种基于深度轨迹预测的多目标跟踪方法及系统 |
CN114187295B (zh) * | 2022-02-16 | 2022-05-13 | 中铁电气化局集团有限公司 | 基于机器学习的绝缘子缺陷检测方法 |
CN116030418B (zh) * | 2023-02-14 | 2023-09-12 | 北京建工集团有限责任公司 | 一种汽车吊运行状态监测系统及方法 |
CN115951325B (zh) * | 2023-03-15 | 2023-06-02 | 中国电子科技集团公司第十五研究所 | 基于BiGRU的多舰船目标跟踪方法、存储介质及产品 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022239A (zh) * | 2016-05-13 | 2016-10-12 | 电子科技大学 | 一种基于循环神经网络的多目标跟踪方法 |
CN107492113A (zh) * | 2017-06-01 | 2017-12-19 | 南京行者易智能交通科技有限公司 | 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 |
WO2019037498A1 (zh) * | 2017-08-25 | 2019-02-28 | 腾讯科技(深圳)有限公司 | 主动跟踪方法、装置及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10705531B2 (en) * | 2017-09-28 | 2020-07-07 | Nec Corporation | Generative adversarial inverse trajectory optimization for probabilistic vehicle forecasting |
-
2019
- 2019-09-30 CN CN201910941298.9A patent/CN110728698B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022239A (zh) * | 2016-05-13 | 2016-10-12 | 电子科技大学 | 一种基于循环神经网络的多目标跟踪方法 |
CN107492113A (zh) * | 2017-06-01 | 2017-12-19 | 南京行者易智能交通科技有限公司 | 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 |
WO2019037498A1 (zh) * | 2017-08-25 | 2019-02-28 | 腾讯科技(深圳)有限公司 | 主动跟踪方法、装置及系统 |
Non-Patent Citations (1)
Title |
---|
欧阳谷 ; 钟必能 ; 白冰 ; 柳欣 ; 王靖 ; 杜吉祥 ; .深度神经网络在目标跟踪算法中的应用与最新研究进展.小型微型计算机系统.2018,第38卷(第2期),315-323. * |
Also Published As
Publication number | Publication date |
---|---|
CN110728698A (zh) | 2020-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110728698B (zh) | 一种基于复合循环神经网络系统的多目标跟踪系统 | |
CN110660082B (zh) | 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法 | |
CN108805083B (zh) | 单阶段的视频行为检测方法 | |
CN110852267B (zh) | 基于光流融合型深度神经网络的人群密度估计方法及装置 | |
CN111161315B (zh) | 一种基于图神经网络的多目标跟踪方法和系统 | |
CN109671102B (zh) | 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法 | |
CN112949828B (zh) | 一种基于图学习的图卷积神经网络交通预测方法及系统 | |
CN106022239A (zh) | 一种基于循环神经网络的多目标跟踪方法 | |
CN107169117B (zh) | 一种基于自动编码器和dtw的手绘图人体运动检索方法 | |
CN108520530A (zh) | 基于长短时记忆网络的目标跟踪方法 | |
CN107146237B (zh) | 一种基于在线状态学习与估计的目标跟踪方法 | |
CN111080675A (zh) | 一种基于时空约束相关滤波的目标跟踪方法 | |
CN113313123B (zh) | 一种基于语义推断的扫视路径预测方法 | |
CN112884742A (zh) | 一种基于多算法融合的多目标实时检测、识别及跟踪方法 | |
CN111695457A (zh) | 一种基于弱监督机制的人体姿态估计方法 | |
CN111897353A (zh) | 基于gru的飞行器机动轨迹预测方法 | |
CN108038515A (zh) | 无监督多目标检测跟踪方法及其存储装置与摄像装置 | |
CN114972439A (zh) | 一种新的无人机目标跟踪算法 | |
CN109272036B (zh) | 一种基于深度残差网络的随机蕨目标跟踪方法 | |
CN108153519B (zh) | 一种目标智能跟踪方法通用设计框架 | |
CN115512214A (zh) | 一种基于因果注意力的室内视觉导航方法 | |
CN115187633A (zh) | 一种六自由度视觉反馈实时运动跟踪方法 | |
CN115482513A (zh) | 使预训练的机器学习系统适配于目标数据的设备和方法 | |
CN110796195B (zh) | 一种包含在线小样本激励的图像分类方法 | |
Kavitha et al. | An extreme learning machine and action recognition algorithm for generalized maximum clique problem in video event recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |