CN112419362A - 一种基于先验信息特征学习的运动目标跟踪方法 - Google Patents

一种基于先验信息特征学习的运动目标跟踪方法 Download PDF

Info

Publication number
CN112419362A
CN112419362A CN201910773901.7A CN201910773901A CN112419362A CN 112419362 A CN112419362 A CN 112419362A CN 201910773901 A CN201910773901 A CN 201910773901A CN 112419362 A CN112419362 A CN 112419362A
Authority
CN
China
Prior art keywords
target
tracking
specific
model
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910773901.7A
Other languages
English (en)
Other versions
CN112419362B (zh
Inventor
金广智
崔智高
苏延召
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rocket Force University of Engineering of PLA
Original Assignee
Rocket Force University of Engineering of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rocket Force University of Engineering of PLA filed Critical Rocket Force University of Engineering of PLA
Priority to CN201910773901.7A priority Critical patent/CN112419362B/zh
Publication of CN112419362A publication Critical patent/CN112419362A/zh
Application granted granted Critical
Publication of CN112419362B publication Critical patent/CN112419362B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于先验信息特征学习的运动目标跟踪方法,包括步骤:一、生成目标概率图模型;二、确定特定跟踪目标的位置与尺度信息;三、特定跟踪目标模型进行差异化调整更新。本发明离线收集特定目标先验信息并生成训练样本,并利用卷积神经网络对训练样本进行预训练,生成目标概率图模型;然后采用多尺度中心搜寻策略来判定特定目标的大致区域,并根据目标概率图模型来进一步确定特定目标的位置与尺度信息;最后通过双层卷积神经网络模型,并结合负样本的稳定性对特定目标模型进行差异化调整更新。

Description

一种基于先验信息特征学习的运动目标跟踪方法
技术领域
本发明属于运动目标跟踪技术领域,具体涉及一种基于先验信息特征学习的运动目标跟踪方法。
背景技术
运动目标跟踪是智能视频分析领域的重要研究课题和应用方向,一般可分为基于状态推理的跟踪方法和基于检测识别的跟踪方法两类。基于状态推理的跟踪方法通常在贝叶斯推理框架下实现,该方法假设目标的运动和观测服从一定的规律,从而通过求解目标运动参数的后验概率来实现运动目标的跟踪。基于状态推理的跟踪方法依赖于运动目标的动态模型和观测模型,然而在很多情况下,动态模型和观测模型无法得到准确的结果,此时只能采用粒子滤波等近似实现对运动目标的跟踪估计。基于检测识别的跟踪方法将跟踪归结为检测、识别问题,并搜索、匹配当前图像中与目标参考模型最相似的区域作为运动目标的跟踪结果。基于检测识别的跟踪方法通常需要不断在线收集跟踪过程中的目标样本数据,当目标样本数据不足时,其跟踪效果不理想。
近年来,诸如卷积神经网络、深度神经网络等深度学习方法受到了前所未有的关注,由于深度学习方法能够通过底层特征的学习,挖掘出样本数据更高层级的深度特征,而这些被抽象表达的深度特征被认为更能反映目标深层次的本质,因此相比于底层特征的学习,该类特征描述方法可显著提升性能。目前,深度学习方法已在图像识别、目标检测等领域取得了较大成功,并在表征图像位移、尺度变化和其他扭曲形式方面表现出了非常强的生命力,而这些又是运动目标跟踪中选取目标特征时最为看重的关键性因素,但其在运动目标跟踪领域的探索应用却相当稀少。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于先验信息特征学习的运动目标跟踪方法,离线收集特定目标先验信息并生成训练样本,并利用卷积神经网络对训练样本进行预训练,生成目标概率图模型;然后采用多尺度中心搜寻策略来判定特定目标的大致区域,并根据目标概率图模型来进一步确定特定目标的位置与尺度信息;最后通过双层卷积神经网络模型,并结合负样本的稳定性对特定目标模型进行差异化调整更新,便于推广使用。
为解决上述技术问题,本发明采用的技术方案是:一种基于先验信息特征学习的运动目标跟踪方法,其特征在于,该方法包括以下步骤:
步骤一、生成目标概率图模型:离线收集特定运动目标的先验信息并生成训练样本,利用卷积神经网络对训练样本进行预训练,生成目标概率图模型,过程如下:
步骤101、选取Image Net 2014数据集中包含某个特定运动目标的图片作为正样本,不包含该特定运动目标的图片作为负样本;
步骤102、利用卷积神经网络模型对上述样本进行训练;
步骤103、输出50×50的目标概率图,概率图上的每个像素点对应原始输入视频帧的一个2×2区域,并且该像素点的值代表原始输入视频帧属于特定运动目标的概率大小;
步骤二、确定特定跟踪目标的位置与尺度信息:通过自动选择或人工标注方式选取特定跟踪目标,采用多尺度中心搜寻策略确定特定跟踪目标的大致区域,并根据目标概率图模型进一步精确确定特定跟踪目标的位置与尺度信息,过程如下:
步骤201、初始时刻,通过自动选择或人工标注方式选取特定跟踪目标;
步骤202、任意t时刻,利用多尺度中心搜寻策略确定特定跟踪目标的大致区域,过程如下:
步骤A、计算t-1时刻特定跟踪目标矩形框的中心,从而确定搜索中心点;
步骤B、根据初始时刻获得的特定跟踪目标真实尺度信息,采用最小的搜索尺度对目标进行搜索,当目标概率图的输出概率小于一定阈值时,则判定目标不在该搜索尺度范围内,转入步骤C;
步骤C、继续搜索特定跟踪目标,并加大搜索尺度,直至目标概率图的输出概率大于设定阈值时,则确定目标在该搜索尺度范围内;
步骤D、若各种搜索尺度均不能发现特定跟踪目标,则判定目标丢失;
步骤203、与离线阶段获得的目标概率图进行匹配度量,从而确定最佳的目标位置与具体尺度,过程如下:
步骤I、确定最佳的特定目标跟踪框中心位置。首先设定目标概率图对应的阈值λ1,采用基于密度基的方法进行搜索,当跟踪框内所有区域目标概率图均高于阈值λ1时,即停止搜索,此时可确定该搜索框中心即为当前时刻特定目标跟踪框的中心点;
步骤II、确定跟踪框尺度,令M表示目标概率图,mij表示目标概率图M中(i,j)位置对应的概率值,若设跟踪框的左上角位置坐标为(x,y),宽为a,高度为b,根据公式
Figure BDA0002174457290000031
计算跟踪框尺度c,其中,ε为平衡系数,用来平衡跟踪框的尺度;
步骤三、特定跟踪目标模型进行差异化调整更新:通过双层卷积神经网络模型,对特定跟踪目标模型进行差异化调整更新。
上述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤101中对每个正样本边界框内部随机进行特定目标像素填充。
上述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤101中,当特定运动目标预测边界框与正样本的重合率低于一定阈值时,随机将其内部像素标记为负样本。
上述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤103中,先设置逻辑回归模型,并定义对应的损耗函数
Figure BDA0002174457290000041
其中,mij表示位置(i,j)的预测像素值,nij表示位置(i,j)真实值的二值表示;正样本数据边界框内部设置为1,外部设置为0,负样本数据统一设置为0。
上述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤三中,若当前帧输出的目标概率均值低于设定阈值,立即对短时表观模型进行更新,即
Figure BDA0002174457290000042
其中,λ2为短时更新参数。
上述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤三中,长时表观模型根据公式
Figure BDA0002174457290000043
进行更新,其中,(x,y,a,b)分别表示的是当前跟踪框的位置与长宽信息,λ3代表较高的置信度。
本发明与现有技术相比具有以下优点:
1、本发明任意t时刻特定跟踪目标矩形框位置、尺度确定后,需要对目标模型进行更新,其基本思路是分别构建两个卷积神经网络模型,一个用于短时表观模型更新,另一个用于长时表观模型更新:首先,两个卷积神经网络模型均在视频输入的第一帧完成模型的初始化;然后,长时表观模型保持相对稳定,短时表观模型更新则一直保持动态的调整;通过二者的协同,短时表观模型更新保持与表观变化的自适应调整,而长时表观模型可以抑制潜在的积累误差,便于推广使用。
2、本发明离线收集特定目标先验信息并生成训练样本,并利用卷积神经网络对训练样本进行预训练,生成目标概率图模型;然后采用多尺度中心搜寻策略来判定特定目标的大致区域,并根据目标概率图模型来进一步确定特定目标的位置与尺度信息,可靠稳定,使用效果好。
3、本发明方法步骤简单,易于实现,便于推广使用。
综上所述,本发明离线收集特定目标先验信息并生成训练样本,并利用卷积神经网络对训练样本进行预训练,生成目标概率图模型;然后采用多尺度中心搜寻策略来判定特定目标的大致区域,并根据目标概率图模型来进一步确定特定目标的位置与尺度信息;最后通过双层卷积神经网络模型,并结合负样本的稳定性对特定目标模型进行差异化调整更新,便于推广使用。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明方法的方法流程框图。
具体实施方式
如图1所示,本发明的一种基于先验信息特征学习的运动目标跟踪方法,包括以下步骤:
步骤一、生成目标概率图模型:离线收集特定运动目标的先验信息并生成训练样本,利用卷积神经网络对训练样本进行预训练,生成目标概率图模型,过程如下:
步骤101、选取Image Net 2014数据集中包含某个特定运动目标的图片作为正样本,不包含该特定运动目标的图片作为负样本;
步骤102、利用卷积神经网络模型对上述样本进行训练;
步骤103、输出50×50的目标概率图,概率图上的每个像素点对应原始输入视频帧的一个2×2区域,并且该像素点的值代表原始输入视频帧属于特定运动目标的概率大小;
步骤二、确定特定跟踪目标的位置与尺度信息:通过自动选择或人工标注方式选取特定跟踪目标,采用多尺度中心搜寻策略确定特定跟踪目标的大致区域,并根据目标概率图模型进一步精确确定特定跟踪目标的位置与尺度信息,过程如下:
步骤201、初始时刻,通过自动选择或人工标注方式选取特定跟踪目标;
步骤202、任意t时刻,利用多尺度中心搜寻策略确定特定跟踪目标的大致区域,过程如下:
步骤A、计算t-1时刻特定跟踪目标矩形框的中心,从而确定搜索中心点;
步骤B、根据初始时刻获得的特定跟踪目标真实尺度信息,采用最小的搜索尺度对目标进行搜索,当目标概率图的输出概率小于一定阈值时,则判定目标不在该搜索尺度范围内,转入步骤C;
步骤C、继续搜索特定跟踪目标,并加大搜索尺度,直至目标概率图的输出概率大于设定阈值时,则确定目标在该搜索尺度范围内;
步骤D、若各种搜索尺度均不能发现特定跟踪目标,则判定目标丢失;
步骤203、与离线阶段获得的目标概率图进行匹配度量,从而确定最佳的目标位置与具体尺度,过程如下:
步骤I、确定最佳的特定目标跟踪框中心位置。首先设定目标概率图对应的阈值λ1,采用基于密度基的方法进行搜索,当跟踪框内所有区域目标概率图均高于阈值λ1时,即停止搜索,此时可确定该搜索框中心即为当前时刻特定目标跟踪框的中心点;
步骤II、确定跟踪框尺度,令M表示目标概率图,mij表示目标概率图M中(i,j)位置对应的概率值,若设跟踪框的左上角位置坐标为(x,y),宽为a,高度为b,根据公式
Figure BDA0002174457290000061
计算跟踪框尺度c,其中,ε为平衡系数,用来平衡跟踪框的尺度;
步骤三、特定跟踪目标模型进行差异化调整更新:通过双层卷积神经网络模型,对特定跟踪目标模型进行差异化调整更新。
本实施例中,步骤101中对每个正样本边界框内部随机进行特定目标像素填充。
本实施例中,步骤101中,当特定运动目标预测边界框与正样本的重合率低于一定阈值时,随机将其内部像素标记为负样本。
本实施例中,步骤103中,先设置逻辑回归模型,并定义对应的损耗函数
Figure BDA0002174457290000071
其中,mij表示位置(i,j)的预测像素值,nij表示位置(i,j)真实值的二值表示;正样本数据边界框内部设置为1,外部设置为0,负样本数据统一设置为0。
本实施例中,步骤三中,若当前帧输出的目标概率均值低于设定阈值,立即对短时表观模型进行更新,即
Figure BDA0002174457290000072
其中,λ2为短时更新参数。
本实施例中,步骤三中,长时表观模型根据公式
Figure BDA0002174457290000073
进行更新,其中,(x,y,a,b)分别表示的是当前跟踪框的位置与长宽信息,λ3代表较高的置信度。
本发明使用时,任意t时刻特定跟踪目标矩形框位置、尺度确定后,需要对目标模型进行更新,其基本思路是分别构建两个卷积神经网络模型,一个用于短时表观模型更新,另一个用于长时表观模型更新:首先,两个卷积神经网络模型均在视频输入的第一帧完成模型的初始化;然后,长时表观模型保持相对稳定,短时表观模型更新则一直保持动态的调整;通过二者的协同,短时表观模型更新保持与表观变化的自适应调整,而长时表观模型可以抑制潜在的积累误差;离线收集特定目标先验信息并生成训练样本,并利用卷积神经网络对训练样本进行预训练,生成目标概率图模型;然后采用多尺度中心搜寻策略来判定特定目标的大致区域,并根据目标概率图模型来进一步确定特定目标的位置与尺度信息,易于实现。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何限制,凡是根据本发明技术实质对以上实施例所作的任何简单修改、变更以及等效结构变化,均仍属于本发明技术方案的保护范围内。

Claims (6)

1.一种基于先验信息特征学习的运动目标跟踪方法,其特征在于,该方法包括以下步骤:
步骤一、生成目标概率图模型:离线收集特定运动目标的先验信息并生成训练样本,利用卷积神经网络对训练样本进行预训练,生成目标概率图模型,过程如下:
步骤101、选取Image Net 2014数据集中包含某个特定运动目标的图片作为正样本,不包含该特定运动目标的图片作为负样本;
步骤102、利用卷积神经网络模型对上述样本进行训练;
步骤103、输出50×50的目标概率图,概率图上的每个像素点对应原始输入视频帧的一个2×2区域,并且该像素点的值代表原始输入视频帧属于特定运动目标的概率大小;
步骤二、确定特定跟踪目标的位置与尺度信息:通过自动选择或人工标注方式选取特定跟踪目标,采用多尺度中心搜寻策略确定特定跟踪目标的大致区域,并根据目标概率图模型进一步精确确定特定跟踪目标的位置与尺度信息,过程如下:
步骤201、初始时刻,通过自动选择或人工标注方式选取特定跟踪目标;
步骤202、任意t时刻,利用多尺度中心搜寻策略确定特定跟踪目标的大致区域,过程如下:
步骤A、计算t-1时刻特定跟踪目标矩形框的中心,从而确定搜索中心点;
步骤B、根据初始时刻获得的特定跟踪目标真实尺度信息,采用最小的搜索尺度对目标进行搜索,当目标概率图的输出概率小于一定阈值时,则判定目标不在该搜索尺度范围内,转入步骤C;
步骤C、继续搜索特定跟踪目标,并加大搜索尺度,直至目标概率图的输出概率大于设定阈值时,则确定目标在该搜索尺度范围内;
步骤D、若各种搜索尺度均不能发现特定跟踪目标,则判定目标丢失;
步骤203、与离线阶段获得的目标概率图进行匹配度量,从而确定最佳的目标位置与具体尺度,过程如下:
步骤I、确定最佳的特定目标跟踪框中心位置。首先设定目标概率图对应的阈值λ1,采用基于密度基的方法进行搜索,当跟踪框内所有区域目标概率图均高于阈值λ1时,即停止搜索,此时可确定该搜索框中心即为当前时刻特定目标跟踪框的中心点;
步骤II、确定跟踪框尺度,令M表示目标概率图,mij表示目标概率图M中(i,j)位置对应的概率值,若设跟踪框的左上角位置坐标为(x,y),宽为a,高度为b,根据公式
Figure FDA0002174457280000021
计算跟踪框尺度c,其中,ε为平衡系数,用来平衡跟踪框的尺度;
步骤三、特定跟踪目标模型进行差异化调整更新:通过双层卷积神经网络模型,对特定跟踪目标模型进行差异化调整更新。
2.按照权利要求1所述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤101中对每个正样本边界框内部随机进行特定目标像素填充。
3.按照权利要求1所述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤101中,当特定运动目标预测边界框与正样本的重合率低于一定阈值时,随机将其内部像素标记为负样本。
4.按照权利要求1所述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤103中,先设置逻辑回归模型,并定义对应的损耗函数
Figure FDA0002174457280000022
其中,mij表示位置(i,j)的预测像素值,nij表示位置(i,j)真实值的二值表示;正样本数据边界框内部设置为1,外部设置为0,负样本数据统一设置为0。
5.按照权利要求1所述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤三中,若当前帧输出的目标概率均值低于设定阈值,立即对短时表观模型进行更新,即
Figure FDA0002174457280000031
其中,λ2为短时更新参数。
6.按照权利要求1所述的一种基于先验信息特征学习的运动目标跟踪方法,其特征在于:步骤三中,长时表观模型根据公式
Figure FDA0002174457280000032
进行更新,其中,(x,y,a,b)分别表示的是当前跟踪框的位置与长宽信息,λ3代表较高的置信度。
CN201910773901.7A 2019-08-21 2019-08-21 一种基于先验信息特征学习的运动目标跟踪方法 Active CN112419362B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910773901.7A CN112419362B (zh) 2019-08-21 2019-08-21 一种基于先验信息特征学习的运动目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910773901.7A CN112419362B (zh) 2019-08-21 2019-08-21 一种基于先验信息特征学习的运动目标跟踪方法

Publications (2)

Publication Number Publication Date
CN112419362A true CN112419362A (zh) 2021-02-26
CN112419362B CN112419362B (zh) 2023-07-07

Family

ID=74780108

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910773901.7A Active CN112419362B (zh) 2019-08-21 2019-08-21 一种基于先验信息特征学习的运动目标跟踪方法

Country Status (1)

Country Link
CN (1) CN112419362B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113570207A (zh) * 2021-07-09 2021-10-29 北京淇瑀信息科技有限公司 用户策略分配方法、装置及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130272570A1 (en) * 2012-04-16 2013-10-17 Qualcomm Incorporated Robust and efficient learning object tracker
CN104637052A (zh) * 2015-01-22 2015-05-20 西南交通大学 基于目标引导显著性检测的对象跟踪方法
US9443320B1 (en) * 2015-05-18 2016-09-13 Xerox Corporation Multi-object tracking with generic object proposals
CN106056626A (zh) * 2016-05-26 2016-10-26 河海大学 一种基于前景背景模型交互的运动目标检测方法
WO2018095082A1 (zh) * 2016-11-28 2018-05-31 江苏东大金智信息系统有限公司 一种视频监测中运动目标的快速检测方法
CN109271883A (zh) * 2018-08-28 2019-01-25 武汉科技大学 一种融合学习机制的目标跟踪方法
CN109671102A (zh) * 2018-12-03 2019-04-23 华中科技大学 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法
CN109903266A (zh) * 2019-01-21 2019-06-18 深圳市华成工业控制有限公司 一种基于样本窗的双核密度估计实时背景建模方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130272570A1 (en) * 2012-04-16 2013-10-17 Qualcomm Incorporated Robust and efficient learning object tracker
CN104637052A (zh) * 2015-01-22 2015-05-20 西南交通大学 基于目标引导显著性检测的对象跟踪方法
US9443320B1 (en) * 2015-05-18 2016-09-13 Xerox Corporation Multi-object tracking with generic object proposals
CN106056626A (zh) * 2016-05-26 2016-10-26 河海大学 一种基于前景背景模型交互的运动目标检测方法
WO2018095082A1 (zh) * 2016-11-28 2018-05-31 江苏东大金智信息系统有限公司 一种视频监测中运动目标的快速检测方法
CN109271883A (zh) * 2018-08-28 2019-01-25 武汉科技大学 一种融合学习机制的目标跟踪方法
CN109671102A (zh) * 2018-12-03 2019-04-23 华中科技大学 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法
CN109903266A (zh) * 2019-01-21 2019-06-18 深圳市华成工业控制有限公司 一种基于样本窗的双核密度估计实时背景建模方法及装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MATEJ KRISTAN等: "The Sixth Visual Object Tracking VOT2018 Challenge Results", 《 COMPUTER VISION – ECCV 2018 WORKSHOPS》 *
SANGDOO YUN等: "Action-Decision Networks for Visual Tracking with Deep Reinforcement Learning", 《IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
胡欣等: "基于改进的TLD目标跟踪算法", 《计算机应用研究》 *
苏延召 等: "改进视觉背景提取模型的运动目标检测算法", 《计算机辅助设计与图形学学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113570207A (zh) * 2021-07-09 2021-10-29 北京淇瑀信息科技有限公司 用户策略分配方法、装置及电子设备
CN113570207B (zh) * 2021-07-09 2024-04-26 北京淇瑀信息科技有限公司 用户策略分配方法、装置及电子设备

Also Published As

Publication number Publication date
CN112419362B (zh) 2023-07-07

Similar Documents

Publication Publication Date Title
CN108399362B (zh) 一种快速行人检测方法及装置
CN107369166B (zh) 一种基于多分辨率神经网络的目标跟踪方法及系统
CN112884742B (zh) 一种基于多算法融合的多目标实时检测、识别及跟踪方法
CN110781262B (zh) 基于视觉slam的语义地图的构建方法
CN112364931B (zh) 一种基于元特征和权重调整的少样本目标检测方法及网络系统
CN111460984A (zh) 一种基于关键点与梯度均衡损失的全局车道线检测方法
CN112489081B (zh) 一种视觉目标跟踪方法及装置
CN111680702B (zh) 一种使用检测框实现弱监督图像显著性检测的方法
CN110781790A (zh) 基于卷积神经网络与vlad的视觉slam闭环检测方法
CN111198964A (zh) 图像检索方法及系统
CN107622507B (zh) 一种基于深度学习的空中目标跟踪方法
CN113936275A (zh) 一种基于区域特征对齐的无监督域适应语义分割方法
CN113361645B (zh) 基于元学习及知识记忆的目标检测模型构建方法及系统
CN114332578A (zh) 图像异常检测模型训练方法、图像异常检测方法和装置
CN112052818A (zh) 无监督域适应的行人检测方法、系统及存储介质
CN111898685A (zh) 一种基于长尾分布数据集的目标检测方法
CN111739053A (zh) 一种复杂场景下的在线多行人检测跟踪方法
CN112614163A (zh) 一种融合贝叶斯轨迹推理的目标跟踪方法及系统
CN114119966A (zh) 基于多视角学习与元学习的小样本目标检测方法
CN117036397A (zh) 一种基于融合信息关联和相机运动补偿的多目标跟踪方法
CN113838135B (zh) 基于lstm双流卷积神经网络的位姿估计方法、系统及介质
CN105427348A (zh) 一种基于蝙蝠算法的视频目标跟踪方法
CN113627240B (zh) 一种基于改进ssd学习模型的无人机树木种类识别方法
CN112419362A (zh) 一种基于先验信息特征学习的运动目标跟踪方法
CN114882376B (zh) 基于最优锚点尺度的卷积神经网络遥感影像目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant