CN109993770B - 一种自适应时空学习与状态识别的目标跟踪方法 - Google Patents

一种自适应时空学习与状态识别的目标跟踪方法 Download PDF

Info

Publication number
CN109993770B
CN109993770B CN201910280578.XA CN201910280578A CN109993770B CN 109993770 B CN109993770 B CN 109993770B CN 201910280578 A CN201910280578 A CN 201910280578A CN 109993770 B CN109993770 B CN 109993770B
Authority
CN
China
Prior art keywords
target
network
image block
feature extraction
state recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201910280578.XA
Other languages
English (en)
Other versions
CN109993770A (zh
Inventor
权伟
叶桦
林国松
于小娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN201910280578.XA priority Critical patent/CN109993770B/zh
Publication of CN109993770A publication Critical patent/CN109993770A/zh
Application granted granted Critical
Publication of CN109993770B publication Critical patent/CN109993770B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种自适应时空学习与状态识别的目标跟踪方法。本发明涉及计算机视觉、人工智能、模式识别技术领域。包含目标检测网络,目标恢复与状态识别网络,空间特征提取网络和时间特征提取网络。然后在网络离线训练过程中,使用生成的目标训练集对网络进行训练,使得网络初始具备了相应的目标检测和识别能力。跟踪过程中,通过空间特征提取网络获取目标丰富的空间特征,再经过时间特征提取网络获取目标的时间变化特征,使得其判别的目标置信度更能反映目标的准确位置,通过将具有最大置信度的候选图像块作为目标图像块,并将其对应的位置作为目标所在的位置,完成目标定位,从而实现对目标对象的跟踪。

Description

一种自适应时空学习与状态识别的目标跟踪方法
技术领域
本发明涉及计算机视觉、人工智能、模式识别技术领域。
背景技术
视觉目标跟踪是计算机视觉领域的重要研究课题,其主要任务是获取目标连续的位置、外观和运动等信息,进而为进一步的语义层分析(如行为识别、场景理解等)提供基础。目标跟踪研究被广泛应用于智能监控、人机交互、自动控制系统等领域,具有很强的实用价值。目前,目标跟踪方法主要包括经典目标跟踪方法和深度学习目标跟踪方法。
经典的目标跟踪方法主要分为生成式方法(Generative Methods)和判别式方法(Discriminative Methods)两类。生成式方法假设目标可以通过某种生成过程或者模型进行表达,如主成分分析(PCA),稀疏编码(Sparse Coding)等,然后将跟踪问题视为在感兴趣的区域中寻找最可能的候选项。这些方法旨在设计一种利于鲁棒目标跟踪的图像表示方法。不同于生成式方法,判别式方法将跟踪视为一个分类或者一种连续的对象检测问题,其任务是将目标从图像背景中分辨出来。这类方法同时利用目标和背景信息,是目前主要研究的一类方法。判别式方法通常包含两个主要的步骤,第一步是通过选择能够辨别目标和背景的视觉特征训练得到一个分类器及其决策规则,第二步是在跟踪过程中将该分类器用于对视场内的每一个位置进行评价并确定最有可能的目标位置。随后将目标框移动到该位置并重复这样的过程,进而实现跟踪,该框架被用于设计出各种形式的跟踪算法。总体来看,经典跟踪方法的主要优势在于运行速度和对辅助数据较少的依赖,同时它们也需要在跟踪的准确性与实时性之间做出权衡。
深度学习(Deep Learning)是近年来机器学习研究的热点,由于其强大的特征表达能力和不断发展的数据集和硬件支持,深度学习已在许多方面取得了惊人的成功,例如语音识别、图像识别、目标检测、视频分类等。深度学习目标跟踪研究发展也十分迅速,但由于目标跟踪中先验知识的缺乏和实时性的要求,使得需要大量训练数据和参数计算为基础的深度学习技术在这方面难以得到充分的施展,具有很大的探索空间。从目前的研究成果来看,深度学习跟踪方法主要应用了自编码器网络和卷积神经网络,其研究主要有两种思路,一种是对网络进行迁移学习再进行在线微调,另一种是改造深度网络的结构以适应跟踪的要求。自编码器网络(AE)是典型的非监督深度学习网络,因其特征学习能力和抗噪声性能被首先应用到目标跟踪中。综合来看,自编码器网络比较直观且体量适中,是一种优秀的非监督深度学习模型,在跟踪中最先得以应用并取得了较好的效果。与自编码器网络不同,卷积神经网络(CNN)是一种监督型的前馈神经网络,它包含多个循环交替进行的卷积、非线性变换和降采样操作,在模式识别特别是计算机视觉任务中体现出非常强大的性能。总体来看,深度学习相比于经典方法具有更强大的特征表达能力,其跟踪方法中有关训练集的选取,网络的选择与结构的改进,算法的实时性,以及应用递归神经网络等方面仍需要进一步的研究。
研究表明为了取得更加优秀的目标跟踪结果,目标跟踪方法不仅需要学习目标的外观特征,即空间特征,而且还需要学习目标的运动特征,即时间特征,这样才能更大程度上判别和处理跟踪时的干扰,对目标进行更加准确的识别和预测。同时,为了能够适应目标的变化,跟踪方法通常都需要在线更新相应的模型,然而目标外观的变化状态会极大地影响模型学习的准确性,即便在准确定位了目标位置的情况下,如果模型对目标外观状态未加辨别的学习将会因不断累积的学习错误而造成跟踪漂移。鉴于此,本发明提出一种自适应时空学习与状态识别的目标跟踪方法。该方法首先构建一个自适应时空学习与状态识别网络,该网络包含目标检测网络,目标恢复与状态识别网络,空间特征提取网络和时间特征提取网络。然后在网络离线训练过程中,使用生成的目标训练集对网络进行训练,使得网络初始具备了相应的目标检测和识别能力。跟踪过程中,通过空间特征提取网络获取目标丰富的空间特征,再经过时间特征提取网络获取目标的时间变化特征,使得其判别的目标置信度更能反映目标的准确位置,通过将具有最大置信度的候选图像块作为目标图像块,并将其对应的位置作为目标所在的位置,完成目标定位,从而实现对目标对象的跟踪。此外,通过目标恢复与状态识别网络可以计算获得目标变化的程度,即目标的状态识别值,跟踪过程中根据该值引导网络的在线学习。本发明采用了GAN(生成式对抗网络)网络对目标外观进行恢复学习,使得跟踪过程对目标的变化更加的鲁棒,增强了对目标变化的适应能力,同时由于网络不仅提取目标的深度空间特征而且对目标变化进行学习,使得网络具备更好的识别和预测能力,进而使得目标定位更加准确。本发明方法不仅可以用于单目标跟踪,通过对网络进行相应的改进(如输出端),还可以扩展用于多目标的跟踪。
发明内容
本发明的目的是提供一种自适应时空学习与状态识别的目标跟踪方法,它能有效地解决长时间实时稳定的目标跟踪的技术问题。
本发明的目的是通过以下技术方案来实现的:一种自适应时空学习与状态识别的目标跟踪方法,包括如下步骤:
步骤一、目标选取
从初始图像中选择并确定要跟踪的目标对象,提取其目标图像块;目标选取过程通过运动目标检测方法自动提取,或者通过人机交互方法手动指定;
步骤二、生成目标数据集
目标数据集包含目标检测数据集和目标识别数据集;对初始图像进行循环移动,并记录每次循环移动后目标在图像中相应的位置坐标,该位置坐标包含目标图像块的左上角横坐标和纵坐标、右下角横坐标和纵坐标,一共生成500个循环移动的图像及其对应的目标图像块坐标数据,构成目标检测数据集;根据步骤一中获得的目标图像块,对其进行平移、旋转、扭曲和遮挡操作,一共生成1500个变换后的图像块,构成目标识别数据集;
步骤三、构建自适应时空学习与状态识别网络
所述自适应时空学习与状态识别网络包含目标检测网络、目标恢复与状态识别网络、空间特征提取网络和时间特征提取网络,共四个部分;其中,目标检测网络基于Yolov3网络结构构建,包含生成器和判别器的目标恢复与状态识别网络基于GAN网络结构构建,空间特征提取网络基于ResNet-50网络结构构建,时间特征提取网络基于LSTM网络结构构建,所述时间特征提取网络的输入为空间特征提取网络ResNet-50的最后一个全连接层;
步骤四、网络离线训练
使用步骤二生成的目标数据集对自适应时空学习与状态识别网络进行训练;具体为,目标检测网络首先在COCO数据集上预训练,然后使用目标检测数据集对其进行再训练;使用目标识别数据集对目标恢复与状态识别网络进行训练,该网络的生成器的输出为恢复的目标图像块,判别器的输入为目标图像块和生成器的实际输出;空间特征提取网络在大规模数据集ImageNet上训练;时间特征提取网络使用目标识别数据集训练;训练方法采用Adam方法;
步骤五、图像输入
在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已采集的视频文件分解为多个帧组成的图像序列,按照时间顺序,逐个提取帧图像作为输入图像;如果输入图像为空,则整个流程中止;
步骤六、目标ROI区域获取
使用目标检测网络对所述输入图像进行目标检测,获得包含目标的关注区域,即目标ROI区域;
步骤七、目标定位与状态识别
在步骤六获得的目标ROI区域内,在任何的位置以任何的大小和宽高比提取候选图像块,将候选图像块输入空间特征提取网络进行正向处理,然后将该网络最后一个全连接层的处理结果输入时间特征提取网络,经时间特征提取网络正向处理后获得候选图像块的目标置信度;将具有置信度最大值的候选图像块作为目标图像块,并将其对应的位置作为目标所在的位置,完成对当前帧图像的目标定位;之后,进行目标状态识别,具体为,将当前目标图像块输入目标恢复与状态识别网络进行正向处理,该网络的生成器输出恢复的目标图像块;采用NCC规则化交叉互相关方法计算恢复的目标图像块与目标图像块的相似度,并将该值作为目标的状态识别值s,完成对当前帧图像的目标状态识别;
步骤八、网络在线学习
如果目标的状态识别值s>0.6,则对自适应时空学习与状态识别网络进行在线学习,具体为,使用步骤七中所述的目标图像块以及其当前帧图像对目标检测网络进行微调训练;同时使用步骤七中所述的目标图像块并采用Adam方法对目标恢复与状态识别网络和时间特征提取网络进行微调训练;跳转到步骤五。
本发明与现有技术相比的优点和积极效果:该方法首先构建一个自适应时空学习与状态识别网络,该网络包含目标检测网络,目标恢复与状态识别网络,空间特征提取网络和时间特征提取网络。然后在网络离线训练过程中,使用生成的目标训练集对网络进行训练,使得网络初始具备了相应的目标检测和识别能力。跟踪过程中,通过空间特征提取网络获取目标丰富的空间特征,再经过时间特征提取网络获取目标的时间变化特征,使得其判别的目标置信度更能反映目标的准确位置,通过将具有最大置信度的候选图像块作为目标图像块,并将其对应的位置作为目标所在的位置,完成目标定位,从而实现对目标对象的跟踪。此外,通过目标恢复与状态识别网络可以计算获得目标变化的程度,即目标的状态识别值,跟踪过程中根据该值引导网络的在线学习。本发明采用了GAN网络对目标外观进行恢复学习,使得跟踪过程对目标的变化更加的鲁棒,增强了对目标变化的适应能力,同时由于网络不仅提取目标的深度空间特征而且对目标变化进行学习,使得网络具备更好的识别和预测能力,进而使得目标定位更加准确。本发明方法不仅可以用于单目标跟踪,通过对网络进行相应的改进(如输出端),还可以扩展用于多目标的跟踪。
附图说明
图1为本发明的网络结构图
图2为本发明的流程图
具体实施方式
实施例:
本发明的方法可用于目标跟踪的各种场合,如智能视频分析,自动人机交互,交通视频监控,无人车辆驾驶,生物群体分析,以及流体表面测速等。
以智能视频分析为例:智能视频分析包含许多重要的自动分析任务,如行为分析,异常报警,视频压缩等,而这些工作的基础则是能够进行稳定的目标跟踪。可以采用本发明提出的跟踪方法实现,具体来说,首先建立一个自适应时空学习与状态识别网络,如图1所示,然后在网络离线训练过程中,使用生成的目标训练集对网络进行训练,包括目标检测网络,目标恢复与状态识别网络,空间特征提取网络和时间特征提取网络,使网络初始具备相应的目标检测和识别能力。跟踪过程中,通过空间特征提取网络获取目标的空间特征,再经过时间特征提取网络获取目标的时间变化特征,并输出目标置信度,然后将具有最大置信度的候选图像块作为目标图像块,并将其对应的位置作为目标所在的位置,完成目标定位,从而实现对目标对象的跟踪。此外,通过目标恢复与状态识别网络计算获得目标变化的程度,即目标的状态识别值,跟踪过程中根据该值引导网络的在线学习。本发明采用了GAN网络对目标外观进行恢复学习,使得跟踪过程对目标的变化更加的鲁棒,增强了对目标变化的适应能力,同时由于网络不仅提取目标的深度空间特征而且对目标变化进行学习,使得网络具备更好的识别和预测能力,进而使得目标定位更加准确。本发明方法不仅可以用于单目标跟踪,通过对网络进行相应的改进(如输出端),还可以扩展用于多目标的跟踪。
本发明方法可通过任何计算机程序设计语言(如C语言)编程实现,基于本方法的跟踪系统软件可在任何PC或者嵌入式系统中实现实时目标跟踪应用。

Claims (1)

1.一种自适应时空学习与状态识别的目标跟踪方法,包括如下步骤:
步骤一、目标选取
从初始图像中选择并确定要跟踪的目标对象,提取其目标图像块;目标选取过程通过运动目标检测方法自动提取,或者通过人机交互方法手动指定;
步骤二、生成目标数据集
目标数据集包含目标检测数据集和目标识别数据集;对初始图像进行循环移动,并记录每次循环移动后目标在图像中相应的位置坐标,该位置坐标包含目标图像块的左上角横坐标和纵坐标、右下角横坐标和纵坐标,一共生成500个循环移动的图像及其对应的目标图像块坐标数据,构成目标检测数据集;根据步骤一中获得的目标图像块,对其进行平移、旋转、扭曲和遮挡操作,一共生成1500个变换后的图像块,构成目标识别数据集;
步骤三、构建自适应时空学习与状态识别网络
所述自适应时空学习与状态识别网络包含目标检测网络、目标恢复与状态识别网络、空间特征提取网络和时间特征提取网络,共四个部分;其中,目标检测网络基于Yolov3网络结构构建,包含生成器和判别器的目标恢复与状态识别网络基于GAN网络结构构建,空间特征提取网络基于ResNet-50网络结构构建,时间特征提取网络基于LSTM网络结构构建,所述时间特征提取网络的输入为空间特征提取网络ResNet-50的最后一个全连接层;
步骤四、网络离线训练
使用步骤二生成的目标数据集对自适应时空学习与状态识别网络进行训练;具体为,目标检测网络首先在COCO数据集上预训练,然后使用目标检测数据集对其进行再训练;使用目标识别数据集对目标恢复与状态识别网络进行训练,该网络的生成器的输出为恢复的目标图像块,判别器的输入为目标图像块和生成器的实际输出;空间特征提取网络在大规模数据集ImageNet上训练;时间特征提取网络使用目标识别数据集训练;训练方法采用Adam方法;
步骤五、图像输入
在实时处理情况下,提取通过摄像头采集并保存在存储区的视频图像,作为要进行跟踪的输入图像;在离线处理情况下,将已采集的视频文件分解为多个帧组成的图像序列,按照时间顺序,逐个提取帧图像作为输入图像;如果输入图像为空,则整个流程中止;
步骤六、目标ROI区域获取
使用目标检测网络对所述输入图像进行目标检测,获得包含目标的关注区域,即目标ROI区域;
步骤七、目标定位与状态识别
在步骤六获得的目标ROI区域内,在任何的位置以任何的大小和宽高比提取候选图像块,将候选图像块输入空间特征提取网络进行正向处理,然后将该网络最后一个全连接层的处理结果输入时间特征提取网络,经时间特征提取网络正向处理后获得候选图像块的目标置信度;将具有置信度最大值的候选图像块作为目标图像块,并将其对应的位置作为目标所在的位置,完成对当前帧图像的目标定位;之后,进行目标状态识别,具体为,将当前目标图像块输入目标恢复与状态识别网络进行正向处理,该网络的生成器输出恢复的目标图像块;采用NCC规则化交叉互相关方法计算恢复的目标图像块与目标图像块的相似度,并将该值作为目标的状态识别值s,完成对当前帧图像的目标状态识别;
步骤八、网络在线学习
如果目标的状态识别值s>0.6,则对自适应时空学习与状态识别网络进行在线学习,具体为,使用步骤七中所述的目标图像块以及其当前帧图像对目标检测网络进行微调训练;同时使用步骤七中所述的目标图像块并采用Adam方法对目标恢复与状态识别网络和时间特征提取网络进行微调训练;跳转到步骤五。
CN201910280578.XA 2019-04-09 2019-04-09 一种自适应时空学习与状态识别的目标跟踪方法 Expired - Fee Related CN109993770B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910280578.XA CN109993770B (zh) 2019-04-09 2019-04-09 一种自适应时空学习与状态识别的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910280578.XA CN109993770B (zh) 2019-04-09 2019-04-09 一种自适应时空学习与状态识别的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN109993770A CN109993770A (zh) 2019-07-09
CN109993770B true CN109993770B (zh) 2022-07-15

Family

ID=67132580

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910280578.XA Expired - Fee Related CN109993770B (zh) 2019-04-09 2019-04-09 一种自适应时空学习与状态识别的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN109993770B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110837836B (zh) * 2019-11-05 2022-09-02 中国科学技术大学 基于最大化置信度的半监督语义分割方法
CN112001252B (zh) * 2020-07-22 2024-04-12 北京交通大学 一种基于异构图网络的多目标跟踪方法
CN112598698B (zh) * 2021-03-08 2021-05-18 南京爱奇艺智能科技有限公司 长时间单目标跟踪方法及系统
CN114022957B (zh) * 2021-11-03 2023-09-22 四川大学 基于深度学习的行为识别方法
CN115393396B (zh) * 2022-08-18 2024-02-02 西安电子科技大学 一种基于掩码预训练的无人机目标跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654139A (zh) * 2015-12-31 2016-06-08 北京理工大学 一种采用时间动态表观模型的实时在线多目标跟踪方法
CN107146237A (zh) * 2017-04-24 2017-09-08 西南交通大学 一种基于在线状态学习与估计的目标跟踪方法
CN107169998A (zh) * 2017-06-09 2017-09-15 西南交通大学 一种基于肝脏超声造影图像的实时跟踪及定量分析方法
CN108520530A (zh) * 2018-04-12 2018-09-11 厦门大学 基于长短时记忆网络的目标跟踪方法
CN109493370A (zh) * 2018-10-12 2019-03-19 西南交通大学 一种基于空间偏移学习的目标跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9934453B2 (en) * 2014-06-19 2018-04-03 Bae Systems Information And Electronic Systems Integration Inc. Multi-source multi-modal activity recognition in aerial video surveillance

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654139A (zh) * 2015-12-31 2016-06-08 北京理工大学 一种采用时间动态表观模型的实时在线多目标跟踪方法
CN107146237A (zh) * 2017-04-24 2017-09-08 西南交通大学 一种基于在线状态学习与估计的目标跟踪方法
CN107169998A (zh) * 2017-06-09 2017-09-15 西南交通大学 一种基于肝脏超声造影图像的实时跟踪及定量分析方法
CN108520530A (zh) * 2018-04-12 2018-09-11 厦门大学 基于长短时记忆网络的目标跟踪方法
CN109493370A (zh) * 2018-10-12 2019-03-19 西南交通大学 一种基于空间偏移学习的目标跟踪方法

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
Online object tracking via motion-guided convolutional neural network (MGNet);W Gan等;《Journal of Visual Communication and Image Representation》;20180531;第53卷;180-191 *
在线学习多重检测的可视对象跟踪方法;权伟等;《电子学报》;20140515;第42卷(第5期);875-882 *
基于感知深度神经网络的视觉跟踪;侯志强等;《电子与信息学报》;20160530(第07期);65-72 *
基于深度学习的视频跟踪研究进展综述;戴凤智等;《计算机工程与应用》;20190307(第10期);21-34 *
基于空间特征匹配的视觉目标跟踪技术研究;周全赟;《万方数据知识服务平台》;20130819;1-60 *
基于自适应卷积特征的目标跟踪算法;蔡玉柱等;《光学学报》;20161207;第37卷(第3期);269-280 *
深度神经网络在目标跟踪算法中的应用与最新研究进展;欧阳谷等;《小型微型计算机系统》;20180215(第02期);125-133 *
项目计算机辅助受理的申请代码与研究方向;宋朝晖等;《电子与信息学报》;20160115(第01期);250-258 *

Also Published As

Publication number Publication date
CN109993770A (zh) 2019-07-09

Similar Documents

Publication Publication Date Title
CN109993770B (zh) 一种自适应时空学习与状态识别的目标跟踪方法
CN110660082B (zh) 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
CN109344725B (zh) 一种基于时空关注度机制的多行人在线跟踪方法
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
CN110147743B (zh) 一种复杂场景下的实时在线行人分析与计数系统及方法
JP6625220B2 (ja) シーン内のオブジェクトのアクションを検出する方法及びシステム
CN110232350B (zh) 一种基于在线学习的实时水面多运动目标检测跟踪方法
CN106169188B (zh) 一种基于蒙特卡洛树搜索的对象跟踪方法
Du et al. Hierarchical recurrent neural network for skeleton based action recognition
Hu et al. Learning activity patterns using fuzzy self-organizing neural network
CN107146237B (zh) 一种基于在线状态学习与估计的目标跟踪方法
CN107122736B (zh) 一种基于深度学习的人体朝向预测方法及装置
Chetverikov et al. Dynamic texture as foreground and background
CN108537825B (zh) 一种基于迁移学习回归网络的目标跟踪方法
CN109410249B (zh) 一种结合深度特征与手绘特征自适应的目标追踪方法
CN109493370B (zh) 一种基于空间偏移学习的目标跟踪方法
CN107798329B (zh) 基于cnn的自适应粒子滤波目标跟踪方法
CN109272036B (zh) 一种基于深度残差网络的随机蕨目标跟踪方法
CN115600145A (zh) 利用局部神经变换的异常区域检测
CN113205138A (zh) 人脸人体匹配方法、设备和存储介质
CN112233145A (zh) 一种基于rgb-d时空上下文模型的多目标遮挡跟踪方法
Li et al. Multi-target tracking with trajectory prediction and re-identification
CN110111358B (zh) 一种基于多层时序滤波的目标跟踪方法
Wang et al. Foreground Object Detecting Algorithm based on Mixture of Gaussian and Kalman Filter in Video Surveillance.
Douillard et al. A spatio-temporal probabilistic model for multi-sensor object recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220715

CF01 Termination of patent right due to non-payment of annual fee