CN110930429B - 一种目标跟踪处理方法、装置及设备、可读介质 - Google Patents

一种目标跟踪处理方法、装置及设备、可读介质 Download PDF

Info

Publication number
CN110930429B
CN110930429B CN201811091515.1A CN201811091515A CN110930429B CN 110930429 B CN110930429 B CN 110930429B CN 201811091515 A CN201811091515 A CN 201811091515A CN 110930429 B CN110930429 B CN 110930429B
Authority
CN
China
Prior art keywords
frame image
target
template
neural network
current frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811091515.1A
Other languages
English (en)
Other versions
CN110930429A (zh
Inventor
黄洋文
邝宏武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN201811091515.1A priority Critical patent/CN110930429B/zh
Publication of CN110930429A publication Critical patent/CN110930429A/zh
Application granted granted Critical
Publication of CN110930429B publication Critical patent/CN110930429B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种目标跟踪处理方法、装置及设备、可读介质,该方法包括:依据目标对象在上一帧图像中的位置信息,在当前帧图像中确定对应所述位置信息的至少一个候选位置;计算各候选位置上的特征信息与指定目标模板之间的匹配度,以从当前帧图像中识别出目标对象;其中,所述指定目标模板为已预置的与所述目标对象的特征信息对应的模板;将各候选位置对应的匹配度输入至已训练的神经网络,以由所述神经网络依据输入的匹配度决策是否更新所述指定目标模板。防止因频繁更新目标模板而产生大量更新冗余的问题。

Description

一种目标跟踪处理方法、装置及设备、可读介质
技术领域
本发明涉及视觉定位技术领域,尤其涉及的是一种目标跟踪处理方法、装置及设备、可读介质。
背景技术
视觉目标跟踪通常是对一个或几个对象作为目标对象来跟踪,由于成像设备在移动过程中与目标对象之间的距离在变化,因而目标对象在成像设备所采集不同图像帧间可能会发生相应的变化,例如尺寸变化、姿态变化等,目标对象在成像设备所采集不同图像帧间也可能不变化。
现有的目标跟踪方式中,是采用逐帧更新目标模板的策略。该目标跟踪方式中,每一帧都更新目标模板,导致因频繁更新目标模板而产生大量更新冗余的问题。
发明内容
有鉴于此,本发明提供一种目标跟踪处理方法、装置及设备、可读介质,防止因频繁更新目标模板而产生大量更新冗余的问题。
本发明第一方面提供一种目标跟踪处理方法,包括:
依据目标对象在上一帧图像中的位置信息,在当前帧图像中确定对应所述位置信息的至少一个候选位置;
计算各候选位置上的特征信息与指定目标模板之间的匹配度,以从当前帧图像中识别出目标对象;其中,所述指定目标模板为已预置的与所述目标对象的特征信息对应的模板;
将各候选位置对应的匹配度输入至已训练的神经网络,以由所述神经网络依据输入的匹配度决策是否更新所述指定目标模板。
根据本发明的一个实施例,所述神经网络决策出不更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定所述目标对象在当前帧图像中被遮挡时、或者当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中的特征信息与指定目标模板一致时,确定决策为不更新目标模板。
根据本发明的一个实施例,所述神经网络决策出更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中未被遮挡且目标对象在当前帧图像中的特征信息与指定目标模板不一致时,确定决策为更新目标模板。
根据本发明的一个实施例,所述神经网络决策出更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中未被遮挡且当前帧图像中目标对象的特征信息与指定目标模板不一致时,对所述不一致的情况进行分类并依据分类情况确定决策为替换更新目标模板或增量更新目标模板。
根据本发明的一个实施例,当所述神经网络决策出更新所述指定目标模板时,该方法进一步包括:
当所述神经网络决策出替换更新目标模板时,提取所述目标对象在当前帧图像中的特征信息,将已预置的指定目标模板更新为已提取的所述特征信息对应的模板;
当所述神经网络决策出增量更新目标模板时,则提取所述目标对象在当前帧图像中的特征信息,融合已提取的所述特征信息和已预置的指定目标模板,将已预置的指定目标模板更新为融合结果对应的模板。
根据本发明的一个实施例,所述将各候选位置对应的匹配度输入至已训练的神经网络,包括:
将各候选位置上的特征信息与指定目标模板之间的匹配度按照候选位置的分布进行排布;
将已排布的匹配度输入至已训练的神经网络。
根据本发明的一个实施例,所述依据目标对象在上一帧图像中的位置信息,在当前帧图像中确定对应所述位置信息的至少一个候选位置,包括:
在所述当前帧图像中确定与所述位置信息匹配的中心候选位置;
在所述当前帧图像中确定以所述中心候选位置为中心的一定范围内的至少一个外围候选位置;
将所述中心候选位置、及所述至少一个外围候选位置确定为所述候选位置。
本发明第二方面提供一种目标跟踪处理装置,包括:
候选位置确定模块,用于依据目标对象在上一帧图像中的位置信息,在当前帧图像中确定对应所述位置信息的至少一个候选位置;
匹配度计算模块,用于计算各候选位置上的特征信息与指定目标模板之间的匹配度,以从当前帧图像中识别出目标对象;其中,所述指定目标模板为已预置的与所述目标对象的特征信息对应的模板;
决策模块,用于将各候选位置对应的匹配度输入至已训练的神经网络,以由所述神经网络依据输入的匹配度决策是否更新所述指定目标模板。
根据本发明的一个实施例,所述决策模块中,所述神经网络决策出不更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定所述目标对象在当前帧图像中被遮挡时、或者当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中的特征信息与指定目标模板一致时,确定决策为不更新目标模板。
根据本发明的一个实施例,所述决策模块中,所述神经网络决策出更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中未被遮挡且目标对象在当前帧图像中的特征信息与指定目标模板不一致时,确定决策为更新目标模板。
根据本发明的一个实施例,所述决策模块中,所述神经网络决策出更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中未被遮挡且当前帧图像中目标对象的特征信息与指定目标模板不一致时,对所述不一致的情况进行分类并依据分类情况确定决策为替换更新目标模板或增量更新目标模板。
根据本发明的一个实施例,所述决策模块中,当所述神经网络决策出更新所述指定目标模板时,该装置进一步包括:
替换更新模块,用于当所述神经网络决策出替换更新目标模板时,提取所述目标对象在当前帧图像中的特征信息,将已预置的指定目标模板更新为已提取的所述特征信息对应的模板;
增量更新模块,用于当所述神经网络决策出增量更新目标模板时,则提取所述目标对象在当前帧图像中的特征信息,融合已提取的所述特征信息和已预置的指定目标模板,将已预置的指定目标模板更新为融合结果对应的模板。
根据本发明的一个实施例,所述决策模块包括:
匹配度排布单元,用于将各候选位置上的特征信息与指定目标模板之间的匹配度按照候选位置的分布进行排布;
匹配度输入单元,用于将已排布的匹配度输入至已训练的神经网络。
根据本发明的一个实施例,所述候选位置确定模块包括:
中心候选位置确定单元,用于在所述当前帧图像中确定与所述位置信息匹配的中心候选位置;
外围候选位置确定单元,用于在所述当前帧图像中确定以所述中心候选位置为中心的一定范围内的至少一个外围候选位置;
候选位置确定单元,用于将所述中心候选位置、及所述至少一个外围候选位置确定为所述候选位置。
本发明第三方面提供电子设备,包括处理器及存储器;所述存储器存储有可被处理器调用的程序;其中,所述处理器执行所述程序时,实现如本发明第一方面提供所述的目标跟踪处理方法。
本发明第四方面提供机器可读存储介质,其上存储有程序,该程序被处理器执行时,实现如本发明第一方面提供所述的目标跟踪处理方法。
本发明实施例具有以下有益效果:
本发明实施例的目标跟踪处理方法中,依据目标对象在上一帧图像中的位置信息,可确定目标对象在当前帧图像中所可能处于的至少一个位置(即候选位置),计算已预置的与目标对象的特征信息对应的指定目标模板与这些候选位置上的特征信息之间的匹配度,所有候选位置对应的匹配度可表征目标对象在图像帧间的变化情况,利用神经网络对输入的匹配度进行计算可决策出是否需要更新当前的指定目标模板,防止因频繁更新而产生大量更新冗余的问题。
附图说明
图1是本发明一示例性实施例示出的目标跟踪处理方法的流程示意图;
图2是本发明一示例性实施例示出的目标跟踪处理装置的结构框图;
图3是本发明一示例性实施例示出的确定目标对象在当前帧图像中的位置的流程示意图;
图4是本发明一示例性实施例示出的目标跟踪过程的示意图;
图5是本发明一示例性实施例示出的神经网络的训练过程的示意图;
图6是本发明一示例性实施例示出的电子设备的结构框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
在本发明使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本发明可能采用术语第一、第二、第三等来描述各种器件,但这些信息不应限于这些术语。这些术语仅用来将同一类型的器件彼此区分开。例如,在不脱离本发明范围的情况下,第一器件也可以被称为第二器件,类似地,第二器件也可以被称为第一器件。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
为了使得本发明的描述更清楚简洁,下面对本发明中的一些技术术语进行解释:
强化学习,是一种机器学习方法,实质是从环境状态到行为动作映射学习,使得智能体根据最大回报采取最优的决策。
深度强化学习(Deep Reinforcement Learning):是将深度学习与强化学习结合起来,从而实现从环境状态到行为动作的端对端学习的一种全新算法。简单的说,神经网络经过深度强化学习后,接收输入的状态可直接输出动作。
目标跟踪:给定目标对象在一帧图像中的图像坐标位置;确定目标对象在下一帧图像中的图像坐标位置,在连续的视频帧序列中重复该操作,得到该目标对象的完整运动轨迹。
在目标跟踪过程中,可利用已预置的目标模板进行目标对象的匹配以识别出目标对象,因为目标对象与成像设备之间的相对位置、成像环境等变化,会导致目标对象在图像中发生姿态变化、尺度变化、被遮挡、或亮度变化等不同的变化,若在跟踪过程中所用的目标模板固定不变,则无法在目标对象发生帧间变化时准确地跟踪。而假使采用以下几种方式对目标模板进行更新,仍然会发生跟踪错误的问题:
第一种,按照逐帧模板更新的方式对目标模板进行更新,利用目标对象在每帧图像中的特征来更新目标模板,不仅存在大量更新冗余的问题,且容易在目标对象在该图像中被遮挡时仍旧更新模板,导致最终跟踪错误。按照固定时间间隔模板更新方式对目标模板进行更新也是同理。
第二种,根据目标对象的运动状态对目标模板进行更新,即在目标对象运动较快时更新目标模板、而在目标运动缓慢或静止时不更新模板,但是,假使在目标对象运动较快的同时发生被遮挡的情况,此方式中仍旧会更新目标模板,导致最终跟踪错误。
第三种,根据跟踪置信度对目标模板进行更新,即当跟踪置信度高时,认为目标对象在图像中未被遮挡,更新目标模板;当跟踪置信度低时,认为目标对象在图像中可能被遮挡,不更新目标模板;但是,依据跟踪置信度来判断是否遮挡并不一定准确,例如目标对象在图像中的姿态、尺度、亮度等变化较大时跟踪置信度也会偏低,此时认为是被遮挡而不更新目标模板,更会导致最终跟踪丢失。
基于上述发现,本发明实施例的目标跟踪处理方法中,依据目标对象在上一帧图像中的位置信息,可确定目标对象在当前帧图像中所可能处于的至少一个位置(即候选位置),计算已预置的与目标对象的特征信息对应的指定目标模板与这些候选位置上的特征信息之间的匹配度,所有候选位置对应的匹配度可表征目标对象在图像帧间的变化情况,利用神经网络对输入的匹配度进行计算可决策出是否需要更新当前的指定目标模板,防止因频繁更新而产生大量更新冗余的问题。
此外,本发明实施例的目标跟踪处理方法中,各候选位置对应的匹配度可反映目标对象在当前帧图像中的特征信息相对于指定目标模板的变化情况,包括姿态变化、尺寸变化、亮度变化、被遮挡等等,因而利用神经网络对匹配度进行计算可确定对应的变化情况,输出与此变化情况相应的决策,即可依据具体变化情况确定当前帧图像是否需要更新指定目标模板,可避免目标对象在当前图像帧中被遮挡时仍旧更新指定目标模板的问题,可在目标对象发生姿态变化、尺度变化、亮度变化等这些变化时更新指定目标模板,有利于目标跟踪的准确性。
本发明实施例的目标跟踪处理方法可应用于交通卡口的车辆目标跟踪,或者室内场景或室外公共场所的目标跟踪等,具体应用场景不限,当然还可以是其他需进行目标跟踪的应用场景,例如也可以是室外围墙等非公共区域内的目标跟踪。所跟踪的可以是多目标或者单目标。
下面对本发明实施例的目标跟踪处理方法进行更具体的描述,但不应以此为限。在一个实施例中,参看图1,示出了本发明实施例的一种目标跟踪处理方法,包括以下步骤:
S100:依据目标对象在上一帧图像中的位置信息,在当前帧图像中确定对应所述位置信息的至少一个候选位置;
S200:计算各候选位置上的特征信息与指定目标模板之间的匹配度,以从当前帧图像中识别出目标对象;其中,所述指定目标模板为已预置的与所述目标对象的特征信息对应的模板;
S300:将各候选位置对应的匹配度输入至已训练的神经网络,以由所述神经网络依据输入的匹配度决策是否更新所述指定目标模板。
本发明实施例的目标跟踪处理方法的执行主体可以为电子设备,进一步地可以为电子设备的处理器,其中,所述处理器可以为一个或多个,所述处理器可以为通用处理器或者专用处理器。
电子设备例如是成像设备或搭载有成像设备的可移动设备,当然还可以是其他类型的电子设备,只要具备图像处理能力即可。本发明实施例的目标跟踪处理方法可应用于对可移动设备的移动控制领域中,可移动设备例如可以包括地面机器人、无人机等,具体不限。
在步骤S100中,依据目标对象在上一帧图像中的位置信息,在当前帧图像中确定对应所述位置信息的至少一个候选位置。
其中,上一帧图像和当前帧图像是连续采集的图像,上一帧图像是相对于当前帧图像而言的。可以理解,图像的采集及目标对象的跟踪是连续的过程,本发明实施例中仅描述了其中一帧时的目标跟踪过程,对于后续帧而言,目标跟踪过程也可是如此。图像可以是从成像设备上获取的,或者是电子设备本身采集的,具体不限。
上一帧图像可以是目标跟踪过程中的任意帧图像。当上一帧图像为目标跟踪过程中的首帧时,目标对象在上一帧图像中的位置可以通过目标检测技术确定,具体不限,当然也可以通过其他方式确定。在后续帧图像中,对该目标对象进行跟踪。
由于无法直接确定目标对象在当前帧图像中的位置,因而依据目标对象在上一帧图像中的位置信息,确定目标对象在当前帧图像中所可能处于的位置,将这些位置作为目标对象的候选位置。
候选位置的确定方式具体不限,可以确定多个候选位置。可以依据目标对象在上一帧图像中的位置在当前帧图像中确定一个初始位置,再依据目标对象的运动趋势预测其后续可能的运动范围,依据初始位置和运动范围确定候选位置。
候选位置对应的图像区域中可能存在目标对象对应的图像区域,区域大小可以依据目标对象在上一帧图像中的大小而定,或者依据指定目标模板确定,当然也可以是其他方式确定。
在当前帧图像中的候选位置确定之后,接着执行步骤S200。
S200:计算各候选位置上的特征信息与指定目标模板之间的匹配度,以从当前帧图像中识别出目标对象;其中,所述指定目标模板为已预置的与所述目标对象的特征信息对应的模板。
可以理解,已预置的指定目标模板可以包括:与目标对象在当前帧图像之前的第n帧图像中的特征信息对应的模板。
当上一帧图像为首帧、或者、目标对象在上一帧图像中未被遮挡且目标对象在上一帧图像中的特征信息发生了变化时,当前帧图像之前的第n帧图像为上一帧图像,即该n为1。
当上一帧图像为非首帧、并且、目标对象在上一帧图像中被遮挡或目标对象在上一帧图像中的特征信息未发生变化时,当前帧图像之前的第n帧图像可以是上一帧图像之前的一帧图像,即该n为大于等于2,具体视上一帧图像之前的图像是否发生被遮挡或相对其前一帧图像是否发生目标对象的特征信息变化而定。
在步骤S200中,将当前帧图像中各候选位置上的特征信息与指定目标模板进行匹配度计算,得到各候选位置对应的匹配度。匹配的过程即目标对象的识别过程,可将匹配度最大的候选位置上的对象识别为目标对象。
换言之,依据各候选位置对应的匹配度,可以确定目标对象在当前帧图像中的位置,具体可以包括以下步骤:从各候选位置中确定匹配度最大的候选位置;将该匹配度最大的候选位置,确定为目标对象在当前帧图像中的位置。目标对象在当前帧图像中的位置可以作为下一帧图像中确定候选位置的依据。
候选位置对应的匹配度最大说明目标对象处于该候选位置的可能性最大,因而将该候选位置作为目标对象在当前帧图像中的位置,实现了目标对象在当前帧图像中的跟踪。
本实施例中,在对当前帧图像进行目标跟踪时,指定目标模板可以是已预置的与所述目标对象在上一帧图像中的特征信息对应的模板。
指定目标模板可以是利用上一帧图像的目标对象的特征信息得到,例如,特征信息例如可以包括上一帧图像中目标对象的一些纹理特征、和/或边缘特征等对应的像素的像素值,将提取的特征信息作为指定目标模板,指定目标模板中记录的是提取的特征对应的像素的像素值,具体不限。
当然,指定目标模板也可以是利用上一帧图像中目标对象的特征信息与上一帧图像所用的目标模板融合得到的,融合方式例如是加权平均;或者可以直接沿用上一帧图像所用的目标模板,即针对上一帧图像完成目标跟踪后,不更新目标模板。
将每个候选位置上的特征信息与指定目标模板进行匹配可确定对应的匹配度,匹配的方式例如是依据指定目标模板中所有像素的像素值与候选位置上的特征信息对应的像素的像素值进行一一比对,每个像素的比对结果可指示像素值之间的相近度(例如差值越大相近度越低),统计所有像素值的比对结果(例如取平均,统计方式具体不限),可确定候选位置对应的匹配度。
本实施例中,在将候选位置上的特征信息与指定目标模板进行匹配时,相互比对的是像素的像素值。候选位置上的特征信息的所有像素的像素值不仅可以体现候选位置中的对象姿态、对象尺寸,还可以体现成像环境,例如包括亮度等信息。
在目标对象发生姿态变化、尺度变化、亮度变化、和/或被遮挡等情况(若为多目标跟踪,则可以是任意一个目标发生上述情况)下,特征的像素的像素值会发生相应变化,所有候选位置对应的匹配度会呈现不同的取值分布情况,因而,所有候选位置对应的匹配度可以反映目标对象在当前帧图像中的姿态变化、尺度变化、亮度变化、被遮挡等。
以遮挡方面为例进行说明,若目标对象在当前帧图像中未被遮挡,则当前帧图像中某个候选位置对应的匹配度会最大,而以此最大匹配度的候选位置为中心往外围方向上的候选位置的匹配度呈递减趋势;若目标对象在当前帧图像中被遮挡,则上述的最大匹配度的值会较低,且呈现的递减趋势也会改变。当这些匹配度与对应的变化情况被预先学习好时,便可以依据匹配度确定目标对象的变化情况。
步骤S300中,将各候选位置对应的匹配度输入至已训练的神经网络,以由所述神经网络依据输入的匹配度决策是否更新所述指定目标模板。
所有候选位置对应的匹配度一并作为神经网络的输入,由于神经网络是预先训练好的,将所有候选位置对应的匹配度输入至神经网络,便可确定这些匹配度反映的目标对象的变化情况所对应的决策,即,神经网络可依据匹配度决策出是否需要更新指定目标模板。
由于各候选位置对应的匹配度是当前帧图像中候选位置的特征信息与指定目标模板的比较情况,而指定目标模板例如又是与目标对象在上一帧图像中的特征信息对应的模板,因而可以体现目标对象在上一帧图像与当前帧图像间的变化情况,利用神经网络计算匹配度可以在不同情况下给出更合适的决策。
在一个实施例中,上述方法流程可由目标跟踪处理装置10执行,如图2所示,目标跟踪处理装置10主要包含3个模块:候选位置确定模块100,匹配度计算模块200和决策模块300。候选位置确定模块100用于执行上述步骤S100,匹配度计算模块200用于执行上述步骤S200,决策模块300用于执行上述步骤S300。
在一个实施例中,候选位置确定模块100包括中心候选位置确定单元、外围候选位置确定单元和候选位置确定单元,可由中心候选位置确定单元执行步骤S101,可由外围候选位置确定单元执行步骤S102,可由候选位置确定单元执行步骤S103,以实现上述步骤S100。步骤S100具体包括以下步骤:
S101:在所述当前帧图像中确定与所述位置信息匹配的中心候选位置;
S102:在所述当前帧图像中确定以所述中心候选位置为中心的一定范围内的至少一个外围候选位置;
S103:将所述中心候选位置、及所述至少一个外围候选位置确定为所述候选位置。
优选来说,上一帧图像和当前帧图像的尺寸是相同的。当然也不排除在图像采集过程中调整设备参数从而缩放图像的尺寸,即使尺寸有所改变,上一帧图像和当前帧图像的尺寸也可依据图像的缩放情况而确定对应关系。
步骤S101中,以成像坐标系为参考,在当前帧图像中确定的中心候选位置与目标对象在上一帧图像中的位置,可以是相同的。
通常来说,由于图像帧间间隔很短,目标对象在上一帧图像和当前帧图像中的位置可能维持不变,因而可以预测目标对象在当前帧图像中处于中心候选位置,以与目标对象在上一帧图像中的位置对应。
步骤S102中,在当前帧图像中确定以中心候选位置为中心的一定范围内的外围候选位置。例如,依据中心候选位置确定一个中心位置坐标,可以在该中心位置坐标为圆心、半径为设定半径的圆形区域内逐像素遍历,每遍历一个像素便确定该像素的坐标位置对应的外围候选位置,实现候选位置的穷举,使得目标跟踪结果更准确。当然,也可以是在此圆形区域内选取出一部分像素的坐标位置来确定对应的外围候选位置,具体不限。
可以理解,本发明实施例中的候选位置可以是当前帧图像中与目标对象在上一帧图像中的尺寸相匹配的一个图像区域的位置。候选位置上的特征信息即从该图像区域提取的特征的信息。
在步骤S103中确定中心候选位置对应的候选区域、及外围候选位置对应的候选位置。
可以理解,可以将全部的候选位置均确定之后,再去进行匹配度的计算;或者可以,每确定一个候选位置,便去进行该候选位置对应的匹配度的计算,具体不限。
为了保证跟踪结果的准确性,还可以将最大匹配度与设定阈值进行比较,在最大匹配度大于设定阈值时,将该匹配度最大的候选位置,确定为目标对象在当前帧图像中的位置。
参看图3,示出了确定目标对象在当前帧图像中的位置(即目标跟踪)的一个具体过程:确定候选位置,即依据目标对象在上一帧图像中的位置,在当前帧图像中确定对应的全部候选区域;接着,遍历候选位置进行与指定目标模板的匹配,可每遍历一个候选位置便将候选位置与指定目标模板进行匹配,最终得到这些候选位置对应的匹配度;接着,根据匹配度确定最优候选位置,选择匹配度最大的候选位置作为最优候选位置;接着,判断最大匹配度是否大于设定阈值,若是则确定跟踪成功,将该匹配度最大的候选位置,确定为目标对象在当前帧图像中的位置,完成在当前帧图像中识别目标对象的过程,若否则确定跟踪丢失。
在一个实施例中,所述将各候选位置对应的匹配度输入至已训练的神经网络,包括:
将各候选位置上的特征信息与指定目标模板之间的匹配度按照候选位置的分布进行排布;
将已排布的匹配度输入至已训练的神经网络。
例如,可以提供一帧与当前帧尺寸一致的空白图像,将各候选位置对应的匹配度记录到空白图像的与候选位置对应的像素中,在全部的候选位置对应的匹配度均记录完成时,得到一张记录有匹配度的图像,将此图像输入至已训练的神经网络中,以由神经网络依据输入的匹配度决策是否更新所述指定目标模板。
可以理解,在一个实施例中,也可以将匹配度和对应候选位置作为组合,将各个匹配度和对应候选位置的组合输入至神经网络中。
在一个实施例中,所述神经网络决策出不更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定所述目标对象在当前帧图像中被遮挡时、或者当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中的特征信息与指定目标模板一致时,确定决策为不更新目标模板。
目标对象在当前帧图像中被遮挡时不更新指定目标模板,否则会导致计算目标对象在下一帧图像中的位置(模板匹配)时选择错误的最优候选位置,最终跟踪错误;此外,目标模板更新操作需要耗费计算资源,目标对象在当前帧图像中的特征信息与指定目标模板一致说明目标对象在当前帧图像中的特征信息相对例如上一帧图像而言未发生变化,在目标对象在未发生变化时不更新指定目标模板,可减少多余的更新操作,从而减少耗费的计算资源。
在一个实施例中,所述神经网络决策出更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中未被遮挡且目标对象在当前帧图像中的特征信息与指定目标模板不一致时,确定决策为更新目标模板。
在目标对象发生除被遮挡之外的变化时更新指定目标模板,例如目标姿态变化、尺度变化、和/或亮度变化等时更新指定目标模板,否则会导致在下一帧图像进行模板匹配时匹配度太低而最终跟踪丢失,有利于提高目标跟踪的准确度。
本发明实施例中,利用神经网络能决策出当前帧图像是否需要更新目标模板,在目标快速变化以及被遮挡情况下仍能保持稳定跟踪,以保障最终跟踪性能;且减少了冗余的模板更新操作,降低了目标跟踪过程的整体计算量。
在一个实施例中,所述神经网络决策出更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中未被遮挡且当前帧图像中目标对象的特征信息与指定目标模板不一致时,对所述不一致的情况进行分类并依据分类情况确定决策为替换更新目标模板或增量更新目标模板。
利用神经网络决策出当前帧图像需要更新目标模板时,还一并利用神经网络确定目标模板的具体更新方式,使得在目标对象帧间发生变化时,可依据变化的情况确定合适的目标模板更新决策。这是可以通过进行相应训练后的神经网络实现的。
在一个实施例中,当所述神经网络决策出更新所述指定目标模板时,该方法进一步包括:
当所述神经网络决策出替换更新目标模板时,提取所述目标对象在当前帧图像中的特征信息,将已预置的指定目标模板更新为已提取的所述特征信息对应的模板;
当所述神经网络决策出增量更新目标模板时,则提取所述目标对象在当前帧图像中的特征信息,融合已提取的所述特征信息和已预置的指定目标模板,将已预置的指定目标模板更新为融合结果对应的模板。
已提取的所述特征信息和已预置的指定目标模板之间的融合方式可以是加权平均,但不限于此。例如,目标对象在当前帧图像中的特征对应的像素的像素值的权重为70%,而将指定目标模板中的像素的像素值的权重为30%,两者对应的像素的像素值间进行加权平均得到的值作为该像素的像素值。当然,权重也可以为其他值,可由神经网络在决策中直接确定。
例如,基于上述方法,可以实现模板更新,如“当前帧不更新目标模板”、“当前帧以30%比例更新目标模板”、“当前帧以70%比例更新目标模板”、“当前帧以100%比例更新目标模板”,所述比例即增量更新比例,即历史帧信息和当前帧信息按设定的比例值加权提取目标模板。
若指定目标模板被更新,则当前帧图像之后的图像中用更新后的指定目标模板进行匹配,即进行更新后的指定目标模板与候选位置上的特征信息之间的匹配度计算。若指定目标模板未被更新,则当前帧图像之后的图像中用未更新的指定目标模板进行匹配,即进行未更新的指定目标模板与候选位置上的特征信息之间的匹配度计算。
作为神经网络的一个实施例,神经网络至少通过用于执行卷积的卷积层、用于执行特征综合的全连接层实现依据输入的匹配度决策是否更新所述指定目标模板。当然,神经网络中还可包括用于执行下采样的池化层和用于执行坐标变换的边框回归层,即,神经网络至少通过用于执行卷积的卷积层、用于执行下采样的池化层、用于执行特征综合的全连接层和用于执行坐标变换的边框回归层实现确定输入的匹配度所对应的决策并输出。可以理解,神经网络的具体结构不限,上述的卷积层等各层数量也不限于一个。
参看图4和图5,深度强化学习包括神经网络离线训练和神经网络在线决策两阶段。首先对以建立并初始化的神经网络进行离线训练,训练方式例如是深度强化学习方式训练,训练后可确定决策方式,决策方式具体体现为神经网络的深度强化学习参数,训练完成后可进行神经网络的在线决策。
神经网络离线训练时,观察环境(例如采集的图像)获取当前状态(状态即得到的所有候选位置对应的匹配度),深度强化学习神经网络依据当前状态做出决策,当前动作对环境产生影响,通过回报函数评价当前环境,深度强化学习神经网络根据回报函数确定当前环境对应的回报值调整深度强化学习参数。例如,从图像中得到的候选位置对应的匹配度,经过深度强化学习神经网络后输出决策为更新模板,然而该帧图像中目标对象被遮挡,则确定一个惩罚值,利用惩罚值对回报值进行惩罚,依据惩罚后的回报值调整深度强化学习参数。如此反复,深度强化学习神经网络通过不断试错实现从状态到决策的映射学习,使得最终采取的决策可保证获得最大回报。训练得到的深度强化学习参数可保存在本地,调用相应参数形成神经网络即可进行在线决策。
神经网络在线决策时,观察环境获取当前状态,深度强化学习神经网络使用离线训练得到的深度强化学习参数,依据当前状态做出是否更新目标模板的决策。
图5示出了基于深度强化学习神经网络的目标跟踪流程,仅以前3帧图像为例,在第1帧时,由于是首帧,可以通过目标检测技术来识别出目标对象,确定目标对象在第1帧中的位置(简称第一位置),并提取识别出的目标对象的特征信息以建立指定目标模板;在第2帧时,依据第一位置在第2帧中确定候选位置,利用已建立的指定目标模块与候选位置上的特征信息进行匹配,选出匹配度最大的候选位置,从而确定目标对象在第2帧中的位置(简称第二位置),神经网络在线决策时决策出更新目标模板,则利用匹配度最大的候选位置确定的目标对象的特征信息更新目标模板;在第3帧中,依据第二位置在第3帧中确定候选位置,利用第2帧中已更新的指定目标模板与候选位置上的特征信息进行匹配,选出匹配度最大的候选位置,从而确定目标对象在第3帧中的位置(简称第三位置),神经网络在线决策时决策出不更新目标模板,则不更新指定目标模板,在第4帧中继续沿用该指定目标模板。
本发明还提供一种目标跟踪处理装置,参看图2,在一个实施例中,该目标跟踪处理装置10可以包括:
候选位置确定模块100,用于依据目标对象在上一帧图像中的位置信息,在当前帧图像中确定对应所述位置信息的至少一个候选位置;
匹配度计算模块200,用于计算各候选位置上的特征信息与指定目标模板之间的匹配度,以从当前帧图像中识别出目标对象;其中,所述指定目标模板为已预置的与所述目标对象的特征信息对应的模板;
决策模块300,用于将各候选位置对应的匹配度输入至已训练的神经网络,以由所述神经网络依据输入的匹配度决策是否更新所述指定目标模板。
在一个实施例中,所述决策模块中,所述神经网络决策出不更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定所述目标对象在当前帧图像中被遮挡时、或者当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中的特征信息与指定目标模板一致时,确定决策为不更新目标模板。
在一个实施例中,所述决策模块中,所述神经网络决策出更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中未被遮挡且目标对象在当前帧图像中的特征信息与指定目标模板不一致时,确定决策为更新目标模板。
在一个实施例中,所述决策模块中,所述神经网络决策出更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中未被遮挡且当前帧图像中目标对象的特征信息与指定目标模板不一致时,对所述不一致的情况进行分类并依据分类情况确定决策为替换更新目标模板或增量更新目标模板。
在一个实施例中,所述决策模块中,当所述神经网络决策出更新所述指定目标模板时,该装置进一步包括:
替换更新模块,用于当所述神经网络决策出替换更新目标模板时,提取所述目标对象在当前帧图像中的特征信息,将已预置的指定目标模板更新为已提取的所述特征信息对应的模板;
增量更新模块,用于当所述神经网络决策出增量更新目标模板时,则提取所述目标对象在当前帧图像中的特征信息,融合已提取的所述特征信息和已预置的指定目标模板,将已预置的指定目标模板更新为融合结果对应的模板。
在一个实施例中,所述决策模块包括:
匹配度排布单元,用于将各候选位置上的特征信息与指定目标模板之间的匹配度按照候选位置的分布进行排布;
匹配度输入单元,用于将已排布的匹配度输入至已训练的神经网络。
在一个实施例中,所述候选位置确定模块包括:
中心候选位置确定单元,用于在所述当前帧图像中确定与所述位置信息匹配的中心候选位置;
外围候选位置确定单元,用于在所述当前帧图像中确定以所述中心候选位置为中心的一定范围内的至少一个外围候选位置;
候选位置确定单元,用于将所述中心候选位置、及所述至少一个外围候选位置确定为所述候选位置。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元。
本发明还提供一种电子设备,包括处理器及存储器;所述存储器存储有可被处理器调用的程序;其中,所述处理器执行所述程序时,实现如前述实施例中所述的目标跟踪处理方法。
本发明图像处理装置的实施例可以应用在电子设备上。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在电子设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如图6所示,图6是本发明根据一示例性实施例示出的目标跟踪处理装置10所在电子设备的一种硬件结构图,除了图6所示的处理器510、内存530、接口520、以及非易失性存储器540之外,实施例中装置10所在的电子设备通常根据该电子设备的实际功能,还可以包括其他硬件,对此不再赘述。
本发明还提供一种机器可读存储介质,其上存储有程序,该程序被处理器执行时,使得图像设备实现如前述实施例中任意一项所述的图像处理方法。
本发明可采用在一个或多个其中包含有程序代码的存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。机器可读存储介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。机器可读存储介质的例子包括但不限于:相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (16)

1.一种目标跟踪处理方法,其特征在于,包括:
依据目标对象在上一帧图像中的位置信息,在当前帧图像中确定对应所述位置信息的至少一个候选位置;
计算各候选位置上的特征信息与指定目标模板之间的匹配度,以从当前帧图像中识别出目标对象;其中,所述指定目标模板为已预置的与所述目标对象的特征信息对应的模板;
将各候选位置对应的匹配度输入至已训练的神经网络,以由所述神经网络依据输入的匹配度决策是否更新所述指定目标模板。
2.如权利要求1所述的目标跟踪处理方法,其特征在于,所述神经网络决策出不更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定所述目标对象在当前帧图像中被遮挡时、或者当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中的特征信息与指定目标模板一致时,确定决策为不更新目标模板。
3.如权利要求1所述的目标跟踪处理方法,其特征在于,所述神经网络决策出更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中未被遮挡且目标对象在当前帧图像中的特征信息与指定目标模板不一致时,确定决策为更新目标模板。
4.如权利要求1所述的目标跟踪处理方法,其特征在于,所述神经网络决策出更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中未被遮挡且当前帧图像中目标对象的特征信息与指定目标模板不一致时,对所述不一致的情况进行分类并依据分类情况确定决策为替换更新目标模板或增量更新目标模板。
5.如权利要求4所述的目标跟踪处理方法,其特征在于,当所述神经网络决策出更新所述指定目标模板时,该方法进一步包括:
当所述神经网络决策出替换更新目标模板时,提取所述目标对象在当前帧图像中的特征信息,将已预置的指定目标模板更新为已提取的所述特征信息对应的模板;
当所述神经网络决策出增量更新目标模板时,则提取所述目标对象在当前帧图像中的特征信息,融合已提取的所述特征信息和已预置的指定目标模板,将已预置的指定目标模板更新为融合结果对应的模板。
6.如权利要求1所述的目标跟踪处理方法,其特征在于,所述将各候选位置对应的匹配度输入至已训练的神经网络,包括:
将各候选位置上的特征信息与指定目标模板之间的匹配度按照候选位置的分布进行排布;
将已排布的匹配度输入至已训练的神经网络。
7.如权利要求1所述的目标跟踪处理方法,其特征在于,所述依据目标对象在上一帧图像中的位置信息,在当前帧图像中确定对应所述位置信息的至少一个候选位置,包括:
在所述当前帧图像中确定与所述位置信息匹配的中心候选位置;
在所述当前帧图像中确定以所述中心候选位置为圆心,以设定半径为半径的圆形区域内的至少一个外围候选位置;
将所述中心候选位置、及所述至少一个外围候选位置确定为所述候选位置。
8.一种目标跟踪处理装置,其特征在于,包括:
候选位置确定模块,用于依据目标对象在上一帧图像中的位置信息,在当前帧图像中确定对应所述位置信息的至少一个候选位置;
匹配度计算模块,用于计算各候选位置上的特征信息与指定目标模板之间的匹配度,以从当前帧图像中识别出目标对象;其中,所述指定目标模板为已预置的与所述目标对象的特征信息对应的模板;
决策模块,用于将各候选位置对应的匹配度输入至已训练的神经网络,以由所述神经网络依据输入的匹配度决策是否更新所述指定目标模板。
9.如权利要求8所述的目标跟踪处理装置,其特征在于,所述决策模块中,所述神经网络决策出不更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定所述目标对象在当前帧图像中被遮挡时、或者当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中的特征信息与指定目标模板一致时,确定决策为不更新目标模板。
10.如权利要求8所述的目标跟踪处理装置,其特征在于,所述决策模块中,所述神经网络决策出更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中未被遮挡且目标对象在当前帧图像中的特征信息与指定目标模板不一致时,确定决策为更新目标模板。
11.如权利要求8所述的目标跟踪处理装置,其特征在于,所述决策模块中,所述神经网络决策出更新所述指定目标模板包括:
当所述神经网络依据输入的匹配度确定目标对象在当前帧图像中未被遮挡且当前帧图像中目标对象的特征信息与指定目标模板不一致时,对所述不一致的情况进行分类并依据分类情况确定决策为替换更新目标模板或增量更新目标模板。
12.如权利要求11所述的目标跟踪处理装置,其特征在于,所述决策模块中,当所述神经网络决策出更新所述指定目标模板时,该装置进一步包括:
替换更新模块,用于当所述神经网络决策出替换更新目标模板时,提取所述目标对象在当前帧图像中的特征信息,将已预置的指定目标模板更新为已提取的所述特征信息对应的模板;
增量更新模块,用于当所述神经网络决策出增量更新目标模板时,则提取所述目标对象在当前帧图像中的特征信息,融合已提取的所述特征信息和已预置的指定目标模板,将已预置的指定目标模板更新为融合结果对应的模板。
13.如权利要求8所述的目标跟踪处理装置,其特征在于,所述决策模块包括:
匹配度排布单元,用于将各候选位置上的特征信息与指定目标模板之间的匹配度按照候选位置的分布进行排布;
匹配度输入单元,用于将已排布的匹配度输入至已训练的神经网络。
14.如权利要求8所述的目标跟踪处理装置,其特征在于,所述候选位置确定模块包括:
中心候选位置确定单元,用于在所述当前帧图像中确定与所述位置信息匹配的中心候选位置;
外围候选位置确定单元,用于在所述当前帧图像中确定以所述中心候选位置为圆心,以设定半径为半径的圆形区域内的至少一个外围候选位置;
候选位置确定单元,用于将所述中心候选位置、及所述至少一个外围候选位置确定为所述候选位置。
15.一种电子设备,其特征在于,包括处理器及存储器;所述存储器存储有可被处理器调用的程序;其中,所述处理器执行所述程序时,实现如权利要求1-7中任意一项所述的目标跟踪处理方法。
16.一种机器可读存储介质,其特征在于,其上存储有程序,该程序被处理器执行时,实现如权利要求1-7中任意一项所述的目标跟踪处理方法。
CN201811091515.1A 2018-09-19 2018-09-19 一种目标跟踪处理方法、装置及设备、可读介质 Active CN110930429B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811091515.1A CN110930429B (zh) 2018-09-19 2018-09-19 一种目标跟踪处理方法、装置及设备、可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811091515.1A CN110930429B (zh) 2018-09-19 2018-09-19 一种目标跟踪处理方法、装置及设备、可读介质

Publications (2)

Publication Number Publication Date
CN110930429A CN110930429A (zh) 2020-03-27
CN110930429B true CN110930429B (zh) 2023-03-31

Family

ID=69855042

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811091515.1A Active CN110930429B (zh) 2018-09-19 2018-09-19 一种目标跟踪处理方法、装置及设备、可读介质

Country Status (1)

Country Link
CN (1) CN110930429B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113689462A (zh) * 2020-05-19 2021-11-23 深圳绿米联创科技有限公司 目标物处理方法、装置以及电子设备
CN112215058A (zh) * 2020-08-26 2021-01-12 中国矿业大学(北京) 一种基于机器视觉的摩托车车道偏离报警方法和系统
CN115082739B (zh) * 2022-07-01 2023-09-01 苏州慧维智能医疗科技有限公司 基于卷积神经网络的内窥镜评估方法及评估系统
CN117135444A (zh) * 2023-03-10 2023-11-28 荣耀终端有限公司 一种基于强化学习的选帧决策方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102074016A (zh) * 2009-11-24 2011-05-25 杭州海康威视软件有限公司 运动目标自动跟踪的装置和方法
CN103391430A (zh) * 2013-07-22 2013-11-13 南通大学 基于dsp的相关跟踪方法及专用装置
CN103927762A (zh) * 2013-01-11 2014-07-16 浙江大华技术股份有限公司 一种目标车辆自动跟踪方法及装置
CN104063884A (zh) * 2014-07-11 2014-09-24 昆明联诚科技股份有限公司 基于运动预测与多模板匹配相结合的图像目标识别方法
CN105184822A (zh) * 2015-09-29 2015-12-23 中国兵器工业计算机应用技术研究所 一种目标跟踪模板更新方法
CN106920248A (zh) * 2017-01-19 2017-07-04 博康智能信息技术有限公司上海分公司 一种目标跟踪方法及装置
WO2017186576A1 (en) * 2016-04-29 2017-11-02 Kudan Limited Method, apparatus and computer program product for tracking a reference image
CN108288020A (zh) * 2017-12-11 2018-07-17 上海交通大学 基于上下文信息的视频遮挡检测系统及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7724962B2 (en) * 2006-07-07 2010-05-25 Siemens Corporation Context adaptive approach in vehicle detection under various visibility conditions

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102074016A (zh) * 2009-11-24 2011-05-25 杭州海康威视软件有限公司 运动目标自动跟踪的装置和方法
CN103927762A (zh) * 2013-01-11 2014-07-16 浙江大华技术股份有限公司 一种目标车辆自动跟踪方法及装置
CN103391430A (zh) * 2013-07-22 2013-11-13 南通大学 基于dsp的相关跟踪方法及专用装置
CN104063884A (zh) * 2014-07-11 2014-09-24 昆明联诚科技股份有限公司 基于运动预测与多模板匹配相结合的图像目标识别方法
CN105184822A (zh) * 2015-09-29 2015-12-23 中国兵器工业计算机应用技术研究所 一种目标跟踪模板更新方法
WO2017186576A1 (en) * 2016-04-29 2017-11-02 Kudan Limited Method, apparatus and computer program product for tracking a reference image
CN106920248A (zh) * 2017-01-19 2017-07-04 博康智能信息技术有限公司上海分公司 一种目标跟踪方法及装置
CN108288020A (zh) * 2017-12-11 2018-07-17 上海交通大学 基于上下文信息的视频遮挡检测系统及方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Object Tracking Algorithm Based on Combination of Dynamic Template Matching and Kalman Filter;Bin Zheng 等;《2012 4th International Conference on Intelligent Human-Machine Systems and Cybernetics》;20120920;136-139 *
基于时空上下文的目标跟踪算法研究;武亚宁;《中国优秀硕士学位论文全文数据库信息科技辑》;20180415(第(2018)04期);I138-2986 *
基于深度学习的空间运动目标检测与跟踪研究;任楠;《中国优秀硕士学位论文全文数据库信息科技辑》;20180315(第(2018)03期);I138-1703 *

Also Published As

Publication number Publication date
CN110930429A (zh) 2020-03-27

Similar Documents

Publication Publication Date Title
CN110930429B (zh) 一种目标跟踪处理方法、装置及设备、可读介质
CN111127513B (zh) 一种多目标跟踪方法
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
Yun et al. Action-decision networks for visual tracking with deep reinforcement learning
CN111626128B (zh) 一种基于改进YOLOv3的果园环境下行人检测方法
CN113468967B (zh) 基于注意力机制的车道线检测方法、装置、设备及介质
CN110930454A (zh) 一种基于边界框外关键点定位的六自由度位姿估计算法
CN113409361B (zh) 一种多目标跟踪方法、装置、计算机及存储介质
CN111899334A (zh) 一种基于点线特征的视觉同步定位与地图构建方法及装置
CN111667535B (zh) 一种针对遮挡场景下的六自由度位姿估计方法
CN113052873B (zh) 一种在线自监督学习场景适应的单目标跟踪方法
CN109902619B (zh) 图像闭环检测方法及系统
CN115995063A (zh) 作业车辆检测与跟踪方法和系统
CN110349188B (zh) 基于tsk模糊模型的多目标跟踪方法、装置及存储介质
CN112686274B (zh) 目标对象的检测方法及设备
CN111242026B (zh) 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法
US20220026556A1 (en) Methods and Systems for Predicting a Trajectory of an Object
CN116579409A (zh) 基于重参数化的智能相机模型剪枝加速方法及加速系统
CN114429489A (zh) 基于多核相关滤波融合的移动机器人目标遮挡跟踪方法
CN113450385A (zh) 一种夜间工作工程机械视觉跟踪方法、装置及存储介质
CN112150509B (zh) 基于多层深度特征的分块跟踪方法
CN116468940B (zh) 一种基于深度学习的感知增强与运动判断算法、存储介质及设备
KR102298098B1 (ko) Rgb-d 카메라의 트래킹을 통한 3d 모델의 생성 방법 및 장치
Portelo et al. Multi-agent detection and labelling of activity patterns
CN115393309A (zh) 一种点胶方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant