CN106960447A - 一种视频目标跟踪的位置修正方法及系统 - Google Patents

一种视频目标跟踪的位置修正方法及系统 Download PDF

Info

Publication number
CN106960447A
CN106960447A CN201710346374.2A CN201710346374A CN106960447A CN 106960447 A CN106960447 A CN 106960447A CN 201710346374 A CN201710346374 A CN 201710346374A CN 106960447 A CN106960447 A CN 106960447A
Authority
CN
China
Prior art keywords
subregion
marginal information
search region
rectangular search
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710346374.2A
Other languages
English (en)
Other versions
CN106960447B (zh
Inventor
马骁
陈志超
周剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Tongjia Youbo Technology Co Ltd
Original Assignee
Chengdu Tongjia Youbo Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Tongjia Youbo Technology Co Ltd filed Critical Chengdu Tongjia Youbo Technology Co Ltd
Priority to CN201710346374.2A priority Critical patent/CN106960447B/zh
Publication of CN106960447A publication Critical patent/CN106960447A/zh
Application granted granted Critical
Publication of CN106960447B publication Critical patent/CN106960447B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了视频目标跟踪的位置修正方法及系统,该方法包括:根据上一帧训练得到的平移预测模型对目标当前帧的平移进行预测,根据上一帧训练得到的尺度预测模型对目标当前帧的尺度进行预测;在平移预测出的目标位置区域外侧确定一个矩形搜索区域,计算矩形搜索区域对应的第一参数值;在矩形搜索区域内利用预测的预定个数尺度采样目标图像信息,计算目标图像信息对应的第二参数值;根据第一参数值和第二参数值确定矩形搜索区域内具有目标信息的图像块,计算图像块的边缘信息图;将边缘信息图划分为相同大小的子区域,利用似物性采样算法对每个子区域与矩形搜索区域进行对比得到修正区域;具有精确度高、鲁棒性好和智能化程度高的优点。

Description

一种视频目标跟踪的位置修正方法及系统
技术领域
本发明涉及计算机图像处理技术领域,特别涉及一种视频目标跟踪的位置修正方法及系统。
背景技术
视频目标跟踪是计算机视觉领域的一个重要研究方向,它的任务是找出目标在视频序列的每一帧中的位置,亦即找到目标在视频序列中的运动轨迹。目标跟踪也是计算机视觉领域一个基础性的研究方向,视频智能分析、视频语义分析、智能机器人等都需要目标跟踪的技术支持。
近年来,随着视频获取设备的发展和视频网络传输的日益成熟,视频中目标跟踪技术越来越受到人们的关注。不论在各大高校实验室和研究所中,还是在全球各大公司中,视频目标跟踪被列为一个重点的研究方向。目标跟踪理论的发展,能够大力地推动视频智能处理领域的发展和智能机器人的技术突破。
传统视频目标跟踪方法都使用在线学习的方式更新跟踪模型的参数,以适应目标在视频中的表观形态变化。然而,当跟踪模型在某些视频帧中做出的预测与实际结果存在误差时,传统视频目标跟踪方法会将错误的信息引入跟踪模型。这样的误差会导致视频目标跟踪方法在后续的视频帧中丢失跟踪目标的本来信息,而将背景信息当成追踪目标,从而导致目标跟踪的失败。
例如,在对车辆这类物体进行环绕跟踪时,车辆的正面与侧面在视频帧中的宽高比不同。传统视频目标跟踪方法在车辆正面获取到的目标信息会随着车辆在视频中角度变化会变得非常不准确,并无法作为预测的依据。这时,如果有一种独立于追踪目标的表观形态信息的预测位置的修正方法对追踪的结果进行矫正,那么就能大大地提升目标跟踪方法的鲁棒性。因此,研究并实现一种目标跟踪结果的修正方法对于目标跟踪至关重要。
发明内容
本发明的目的是提供一种视频目标跟踪的位置修正方法及系统,采用了独立于追踪目标的表观形态信息的预测位置的修正方法对追踪的结果进行矫正,容错率高,鲁棒性好且智能化程度高。
为解决上述技术问题,本发明提供一种视频目标跟踪的位置修正方法,包括:
根据上一帧训练得到的平移预测模型对目标当前帧的平移进行预测,并根据上一帧训练得到的尺度预测模型对目标当前帧的尺度进行预测;
在平移预测出的目标位置区域外侧确定一个矩形搜索区域,并计算所述矩形搜索区域对应的第一参数值;
在所述矩形搜索区域内利用预测的预定个数尺度采样目标图像信息,并计算所述目标图像信息对应的第二参数值;
根据所述第一参数值和所述第二参数值确定所述矩形搜索区域内具有目标信息的图像块,并计算所述图像块的边缘信息图;
将所述边缘信息图划分为相同大小的子区域,利用似物性采样算法对每个所述子区域与所述矩形搜索区域进行对比得到修正区域。
可选的,计算所述矩形搜索区域对应的第一参数值,包括:
提取所述矩形搜索区域的特征,并利用二维鉴别性相关滤波方法求解第一参数值。
可选的,计算所述目标图像信息对应的第二参数值,包括:
提取所述目标图像信息的特征,并利用一维鉴别性相关滤波方法求解第二参数值。
可选的,将所述边缘信息图划分为相同大小的子区域,利用似物性采样算法对每个所述子区域与所述矩形搜索区域进行对比得到修正区域,包括:
将所述边缘信息图划分为相同大小的子区域,将每个所述子区域与所述矩形搜索区域进行对比,统计每个所述子区域内部的边缘信息量,并根据统计的边缘信息量筛选出候选子区域;
对每个所述候选子区域依次进行平移预测和尺度预测,将预测结果与所述矩形搜索区域进行对比,统计每个预测结果的边缘信息量,并筛选出边缘信息量最多的候选子区域作为修正区域。
可选的,将所述边缘信息图划分为相同大小的子区域,包括:
设定一个固定的窗口大小,以及遍历步长;
利用所述遍历步长在所述边缘信息图上按照从左到右以及从上到下的顺序遍历整个边缘信息图,将所述边缘信息图划分为相同大小的子区域。
可选的,将每个所述子区域与所述矩形搜索区域进行对比,统计每个所述子区域内部的边缘信息量,并根据统计的边缘信息量筛选出候选子区域,包括:
计算每个所述子区域与所述矩形搜索区域的重叠率;并选取重叠率超过设定的重叠率阈值对应的子区域作为预选子区域;
将每个所述预选子区域的得分与设定的得分阈值进行比较,筛选出超过所述得分阈值对应的预选子区域作为候选子区域。
本发明还提供了一种视频目标跟踪的位置修正系统,包括:
平移检测模块,用于根据上一帧训练得到的平移预测模型对目标当前帧的平移进行预测,在平移预测出的目标位置区域外侧确定一个矩形搜索区域,并计算所述矩形搜索区域对应的第一参数值;
尺度检测模块,用于根据上一帧训练得到的尺度预测模型对目标当前帧的尺度进行预测,在所述矩形搜索区域内利用预测的预定个数尺度采样目标图像信息,并计算所述目标图像信息对应的第二参数值;
矩框修正模块,用于根据所述第一参数值和所述第二参数值确定所述矩形搜索区域内具有目标信息的图像块,并计算所述图像块的边缘信息图;将所述边缘信息图划分为相同大小的子区域,利用似物性采样算法对每个所述子区域与所述矩形搜索区域进行对比得到修正区域。
可选的,所述矩框修正模块,包括:
候选子区域单元,用于将所述边缘信息图划分为相同大小的子区域,将每个所述子区域与所述矩形搜索区域进行对比,统计每个所述子区域内部的边缘信息量,并根据统计的边缘信息量筛选出候选子区域;
修正区域确定单元,用于对每个所述候选子区域依次进行平移预测和尺度预测,将预测结果与所述矩形搜索区域进行对比,统计每个预测结果的边缘信息量,并筛选出边缘信息量最多的候选子区域作为修正区域。
可选的,所述候选子区域单元,包括:
子区域确定子单元,用于设定一个固定的窗口大小,以及遍历步长;利用所述遍历步长在所述边缘信息图上按照从左到右以及从上到下的顺序遍历整个边缘信息图,将所述边缘信息图划分为相同大小的子区域。
可选的,所述候选子区域单元,包括:
预选子区域子单元,用于计算每个所述子区域与所述矩形搜索区域的重叠率;并选取重叠率超过设定的重叠率阈值对应的子区域作为预选子区域;
候选子区域子单元,用于将每个所述预选子区域的得分与设定的得分阈值进行比较,筛选出超过所述得分阈值对应的预选子区域作为候选子区域。
本发明所提供的一种视频目标跟踪的位置修正方法,包括:根据上一帧训练得到的平移预测模型对目标当前帧的平移进行预测,并根据上一帧训练得到的尺度预测模型对目标当前帧的尺度进行预测;在平移预测出的目标位置区域外侧确定一个矩形搜索区域,并计算矩形搜索区域对应的第一参数值;在矩形搜索区域内利用预测的预定个数尺度采样目标图像信息,并计算目标图像信息对应的第二参数值;根据第一参数值和第二参数值确定矩形搜索区域内具有目标信息的图像块,并计算图像块的边缘信息图;将边缘信息图划分为相同大小的子区域,利用似物性采样算法对每个子区域与矩形搜索区域进行对比得到修正区域;
可见,该方法将目标的平移预测和尺度预测分开进行;在每一帧中先对目标的平移进行预测,然后在预测出的平移位置进行多尺度采样,利用采样得到的信息对目标做尺度预测。之后,利用似物性采样算法,在搜索区域周围获取多个可能为物体的候选区域,通过设定一种判别准则,结合平移预测和尺度预测的结果,在多个候选区域中选择一个最有可能为追踪目标的物体作为修正的结果,具有精确度高、鲁棒性好和智能化程度高的优点。本发明还提供一种视频目标跟踪的位置修正系统,具有上述有益效果,在此不再赘述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例所提供的视频目标跟踪的位置修正方法的流程图;
图2为本发明实施例所提供的视频目标跟踪的位置修正系统的结构框图。
具体实施方式
本发明的核心是提供一种视频目标跟踪的位置修正方法及系统,采用了独立于追踪目标的表观形态信息的预测位置的修正方法对追踪的结果进行矫正,容错率高,鲁棒性好且智能化程度高。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,图1为本发明实施例所提供的视频目标跟踪的位置修正方法的流程图;该方法可以包括:
S100、根据上一帧训练得到的平移预测模型对目标当前帧的平移进行预测,并根据上一帧训练得到的尺度预测模型对目标当前帧的尺度进行预测。
具体的,该步骤具体为预测阶段,其包含两个子阶段:
第一,平移预测阶段,根据上一帧训练得到的平移预测模型对目标当前帧的平移进行预测。
第二,尺度预测阶段,根据上一帧训练得到的尺度预测模型对目标当前帧的尺度进行预测。具体的,初始情况下即第一帧时,平移预测模型和尺度预测模型的初始值即第一帧对应的数值。
S110、在平移预测出的目标位置区域外侧确定一个矩形搜索区域,并计算矩形搜索区域对应的第一参数值。
S120、在矩形搜索区域内利用预测的预定个数尺度采样目标图像信息,并计算目标图像信息对应的第二参数值。
具体的,该步骤S110和S120具体为训练阶段,其包含两个子阶段:
第一,平移训练阶段,即在预测出的目标的位置区域周围选取一个矩形搜索区域,提取其特征,求解相关第一参数。
第二,尺度训练阶段,即在选取的矩形搜索区域内采样多个尺度的目标图像信息,提取其特征,求解相关第二参数。
其中,根据上述3个步骤可以看到本实施例中将目标的平移预测和尺度预测分开进行。在每一帧中,本发明先对目标的平移进行预测,然后在预测出的平移位置进行多尺度采样(即利用预测的预定个数尺度采样目标图像信息),利用采样得到的信息对目标做尺度预测(即将采样得到的信息作为尺度预测模型在下一帧对目标当前帧的尺度进行预测)。具体的,上述特征的提取方法可以采用现有的YOLO特征提取算法进行特征提取。
优选的,为了提高相关参数计算的准确性,本实施例中第一参数和第二参数的求解可以利用鉴别性相关滤波的方法,具体可以如下:
提取矩形搜索区域的特征,并利用二维鉴别性相关滤波方法求解第一参数值。
提取目标图像信息的特征,并利用一维鉴别性相关滤波方法求解第二参数值。
后续步骤S130和S140进入矩框修正阶段。
S130、根据第一参数值和第二参数值确定矩形搜索区域内具有目标信息的图像块,并计算图像块的边缘信息图。
具体的,该步骤主要选取矩形搜索区域内的图像块,计算得到图像块的边缘信息图。即系统运行过程中,矩框修正阶段的输入为平移预测模块和尺度预测模块进行处理之后的目标所在的矩形搜索区域内的图像块。
S140、将边缘信息图划分为相同大小的子区域,利用似物性采样算法对每个子区域与矩形搜索区域进行对比得到修正区域。
具体的,该步骤主要将边缘信息图划分为多个相同大小的子区域,将每个子区域和矩形搜索区域利用似物性采样算法进行比对,筛选出修正区域。即在确定图像块之后,会计算输入图像块的边缘信息量。然后,计算每个子区域内部的边缘信息作为似物性采样算法的衡量标准(例如可以利用扫描窗口的方式统计出每个子区域内部的边缘信息的多少)。之后,输出排名靠前的多个子区域作为候选区域。最后,从这些候选区域中选择一个最优的结果作为修正的结果。本实施例并不限定具体的选取规则。
本实施例并不限定具体的边缘信息量的具体内容。一般情况下边缘信息量可以由区域信息和得分信息组成。例如矩形搜索区域的边缘信息量为预测阶段和训练阶段处理后得到一个矩形搜索区域和其对应的一个得分两者共同组成矩形搜索区域的边缘信息量即边缘信息量。
如果在矩形搜索区域中没有找到满足似物性条件的候选区域,则不做修正,将目标跟踪系统的状态判定交给重检测模块即进行重新检测。
优选的,将边缘信息图划分为相同大小的子区域,利用似物性采样算法对每个子区域与矩形搜索区域进行对比得到修正区域可以包括:
将边缘信息图划分为相同大小的子区域,将每个子区域与矩形搜索区域进行对比,统计每个子区域内部的边缘信息量,并根据统计的边缘信息量筛选出候选子区域;
对每个候选子区域依次进行平移预测和尺度预测,将预测结果与矩形搜索区域进行对比,统计每个预测结果的边缘信息量,并筛选出边缘信息量最多的候选子区域作为修正区域。
具体的,将每个子区域和矩形搜索区域进行比对,统计出每个子区域内部的边缘信息量;同时,根据边缘信息量的多少,筛选出部分子区域作为候选子区域;对筛选出的每一个候选子区域依次进行平移预测和尺度预测;将预测的结果和矩形搜索区域再进行比对,统计出预测的结果的边缘信息量,筛选出最优的结果对应的子区域作为最终的结果。
具体的,将边缘信息图划分为相同大小的子区域可以包括:
设定一个固定的窗口大小,以及遍历步长;
利用遍历步长在边缘信息图上按照从左到右以及从上到下的顺序遍历整个边缘信息图,将边缘信息图划分为相同大小的子区域。
具体的,设定一个固定的窗口大小,然后按一定的步长(即遍历步长)在边缘信息图上按从左到右,从上到下的顺序遍历整个图像,每一次步长移动将获取一个子区域。
具体的比较过程可以如下:
计算每个子区域与矩形搜索区域的重叠率;并选取重叠率超过设定的重叠率阈值对应的子区域作为预选子区域;
将每个预选子区域的得分与设定的得分阈值进行比较,筛选出超过得分阈值对应的预选子区域作为候选子区域。
具体的,将边缘信息图划分为多个相同大小的子区域时,都将得到一个矩形区域(即子区域)和一个得分,计算每一个矩形区域和矩形搜索区域的重叠率,按照设定的重叠率阈值筛掉部分结果;然后按得分的得分阈值再筛掉部分结果。本实施例中并不限定具体重叠率阈值和得分阈值的数值,其可以由用户进行确定和修改。
基于上述技术方案,本发明实施例提供的视频目标跟踪的位置修正方法,将目标的平移预测和尺度预测分开进行;在每一帧中先对目标的平移进行预测,然后在预测出的平移位置进行多尺度采样,利用采样得到的信息对目标做尺度预测。之后,利用似物性采样算法,在搜索区域周围获取多个可能为物体的候选区域,通过设定一种判别准则,结合平移预测和尺度预测的结果,在多个候选区域中选择一个最有可能为追踪目标的物体作为修正的结果;即采用了一种独立于追踪目标的表观形态信息的预测位置的修正方法对追踪的结果进行矫正,具有精确度高、鲁棒性好和智能化程度高的优点。
下面对本发明实施例提供的视频目标跟踪的位置修正系统进行介绍,下文描述的视频目标跟踪的位置修正系统与上文描述的视频目标跟踪的位置修正方法可相互对应参照。
请参考图2,图2为本发明实施例所提供的视频目标跟踪的位置修正系统的结构框图;该系统可以包括:
平移检测模块100,用于根据上一帧训练得到的平移预测模型对目标当前帧的平移进行预测,在平移预测出的目标位置区域外侧确定一个矩形搜索区域,并计算矩形搜索区域对应的第一参数值;
尺度检测模块200,用于根据上一帧训练得到的尺度预测模型对目标当前帧的尺度进行预测,在矩形搜索区域内利用预测的预定个数尺度采样目标图像信息,并计算目标图像信息对应的第二参数值;
矩框修正模块300,用于根据第一参数值和第二参数值确定矩形搜索区域内具有目标信息的图像块,并计算图像块的边缘信息图;将边缘信息图划分为相同大小的子区域,利用似物性采样算法对每个子区域与矩形搜索区域进行对比得到修正区域。即矩框修正模块300为利用似物性采样算法通过判断和比对获取最优结果的模块。
具体的,平移检测模块100实现对目标进行平移检测,尺度检测模块200,实现对目标进行尺度检测,矩框修正模块300实现根据平移检测模块和尺度检测模块的结果进行位置修正。
进一步,平移检测模块100包括:平移预测单元和平移训练单元;平移预测单元用于对每一帧中目标的平移进行预测;即根据上一帧训练得到的平移预测模型对目标当前帧的平移进行预测;平移训练单元用于对平移预测出的位置周围选取一个矩形搜索区域,并提取特征;即在平移预测出的目标位置区域外侧确定一个矩形搜索区域,并计算矩形搜索区域对应的第一参数值。
尺度检测模块200包括:尺度预测单元和尺度训练单元;尺度预测单元用于对每一帧中目标的尺度进行预测;即根据上一帧训练得到的尺度预测模型对目标当前帧的尺度进行预测;尺度训练单元用于对尺度预测单元预测出的位置周围采样多个尺度的目标图像信息,并提取特征;即在矩形搜索区域内利用预测的预定个数尺度采样目标图像信息,并计算目标图像信息对应的第二参数值。
矩框修正模块300包括边缘信息获取单元用来获取边缘信息图。
进一步,平移检测模块100和尺度检测模块200在进行检测过程中,均采用基于鉴别性相关滤波的方法。矩框修正模块300使用似物性采样方法进行矩形框修正。其中,平移检测模块100在预测出的位置周围划定一定大小的搜索区域,并提取特征。然后利用一个二维的鉴别性相关滤波方法求解模型的第一参数。尺度检测模块200在在矩形搜索区域内利用预测的预定个数尺度采样目标图像信息,并提取特征,然后利用一个一维的鉴别性相关滤波方法求解模型的第二参数。
基于上述实施例,矩框修正模块300可以包括:
候选子区域单元,用于将边缘信息图划分为相同大小的子区域,将每个子区域与矩形搜索区域进行对比,统计每个子区域内部的边缘信息量,并根据统计的边缘信息量筛选出候选子区域;
修正区域确定单元,用于对每个候选子区域依次进行平移预测和尺度预测,将预测结果与矩形搜索区域进行对比,统计每个预测结果的边缘信息量,并筛选出边缘信息量最多的候选子区域作为修正区域。
基于上述实施例,候选子区域单元可以包括:
子区域确定子单元,用于设定一个固定的窗口大小,以及遍历步长;利用遍历步长在边缘信息图上按照从左到右以及从上到下的顺序遍历整个边缘信息图,将边缘信息图划分为相同大小的子区域。
基于上述实施例,候选子区域单元可以包括:
预选子区域子单元,用于计算每个子区域与矩形搜索区域的重叠率;并选取重叠率超过设定的重叠率阈值对应的子区域作为预选子区域;
候选子区域子单元,用于将每个预选子区域的得分与设定的得分阈值进行比较,筛选出超过得分阈值对应的预选子区域作为候选子区域。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本发明所提供的一种视频目标跟踪的位置修正方法及系统进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (10)

1.一种视频目标跟踪的位置修正方法,其特征在于,包括:
根据上一帧训练得到的平移预测模型对目标当前帧的平移进行预测,并根据上一帧训练得到的尺度预测模型对目标当前帧的尺度进行预测;
在平移预测出的目标位置区域外侧确定一个矩形搜索区域,并计算所述矩形搜索区域对应的第一参数值;
在所述矩形搜索区域内利用预测的预定个数尺度采样目标图像信息,并计算所述目标图像信息对应的第二参数值;
根据所述第一参数值和所述第二参数值确定所述矩形搜索区域内具有目标信息的图像块,并计算所述图像块的边缘信息图;
将所述边缘信息图划分为相同大小的子区域,利用似物性采样算法对每个所述子区域与所述矩形搜索区域进行对比得到修正区域。
2.根据权利要求1所述的视频目标跟踪的位置修正方法,其特征在于,计算所述矩形搜索区域对应的第一参数值,包括:
提取所述矩形搜索区域的特征,并利用二维鉴别性相关滤波方法求解第一参数值。
3.根据权利要求2所述的视频目标跟踪的位置修正方法,其特征在于,计算所述目标图像信息对应的第二参数值,包括:
提取所述目标图像信息的特征,并利用一维鉴别性相关滤波方法求解第二参数值。
4.根据权利要求1-3任一项所述的视频目标跟踪的位置修正方法,其特征在于,将所述边缘信息图划分为相同大小的子区域,利用似物性采样算法对每个所述子区域与所述矩形搜索区域进行对比得到修正区域,包括:
将所述边缘信息图划分为相同大小的子区域,将每个所述子区域与所述矩形搜索区域进行对比,统计每个所述子区域内部的边缘信息量,并根据统计的边缘信息量筛选出候选子区域;
对每个所述候选子区域依次进行平移预测和尺度预测,将预测结果与所述矩形搜索区域进行对比,统计每个预测结果的边缘信息量,并筛选出边缘信息量最多的候选子区域作为修正区域。
5.根据权利要求4所述的视频目标跟踪的位置修正方法,其特征在于,将所述边缘信息图划分为相同大小的子区域,包括:
设定一个固定的窗口大小,以及遍历步长;
利用所述遍历步长在所述边缘信息图上按照从左到右以及从上到下的顺序遍历整个边缘信息图,将所述边缘信息图划分为相同大小的子区域。
6.根据权利要求5所述的视频目标跟踪的位置修正方法,其特征在于,将每个所述子区域与所述矩形搜索区域进行对比,统计每个所述子区域内部的边缘信息量,并根据统计的边缘信息量筛选出候选子区域,包括:
计算每个所述子区域与所述矩形搜索区域的重叠率;并选取重叠率超过设定的重叠率阈值对应的子区域作为预选子区域;
将每个所述预选子区域的得分与设定的得分阈值进行比较,筛选出超过所述得分阈值对应的预选子区域作为候选子区域。
7.一种视频目标跟踪的位置修正系统,其特征在于,包括:
平移检测模块,用于根据上一帧训练得到的平移预测模型对目标当前帧的平移进行预测,在平移预测出的目标位置区域外侧确定一个矩形搜索区域,并计算所述矩形搜索区域对应的第一参数值;
尺度检测模块,用于根据上一帧训练得到的尺度预测模型对目标当前帧的尺度进行预测,在所述矩形搜索区域内利用预测的预定个数尺度采样目标图像信息,并计算所述目标图像信息对应的第二参数值;
矩框修正模块,用于根据所述第一参数值和所述第二参数值确定所述矩形搜索区域内具有目标信息的图像块,并计算所述图像块的边缘信息图;将所述边缘信息图划分为相同大小的子区域,利用似物性采样算法对每个所述子区域与所述矩形搜索区域进行对比得到修正区域。
8.根据权利要求7所述的视频目标跟踪的位置修正系统,其特征在于,所述矩框修正模块,包括:
候选子区域单元,用于将所述边缘信息图划分为相同大小的子区域,将每个所述子区域与所述矩形搜索区域进行对比,统计每个所述子区域内部的边缘信息量,并根据统计的边缘信息量筛选出候选子区域;
修正区域确定单元,用于对每个所述候选子区域依次进行平移预测和尺度预测,将预测结果与所述矩形搜索区域进行对比,统计每个预测结果的边缘信息量,并筛选出边缘信息量最多的候选子区域作为修正区域。
9.根据权利要求8所述的视频目标跟踪的位置修正系统,其特征在于,所述候选子区域单元,包括:
子区域确定子单元,用于设定一个固定的窗口大小,以及遍历步长;利用所述遍历步长在所述边缘信息图上按照从左到右以及从上到下的顺序遍历整个边缘信息图,将所述边缘信息图划分为相同大小的子区域。
10.根据权利要求9所述的视频目标跟踪的位置修正系统,其特征在于,所述候选子区域单元,包括:
预选子区域子单元,用于计算每个所述子区域与所述矩形搜索区域的重叠率;并选取重叠率超过设定的重叠率阈值对应的子区域作为预选子区域;
候选子区域子单元,用于将每个所述预选子区域的得分与设定的得分阈值进行比较,筛选出超过所述得分阈值对应的预选子区域作为候选子区域。
CN201710346374.2A 2017-05-17 2017-05-17 一种视频目标跟踪的位置修正方法及系统 Active CN106960447B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710346374.2A CN106960447B (zh) 2017-05-17 2017-05-17 一种视频目标跟踪的位置修正方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710346374.2A CN106960447B (zh) 2017-05-17 2017-05-17 一种视频目标跟踪的位置修正方法及系统

Publications (2)

Publication Number Publication Date
CN106960447A true CN106960447A (zh) 2017-07-18
CN106960447B CN106960447B (zh) 2020-01-21

Family

ID=59481927

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710346374.2A Active CN106960447B (zh) 2017-05-17 2017-05-17 一种视频目标跟踪的位置修正方法及系统

Country Status (1)

Country Link
CN (1) CN106960447B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108876818A (zh) * 2018-06-05 2018-11-23 国网辽宁省电力有限公司信息通信分公司 一种基于似物性和相关滤波的目标跟踪方法
CN109871763A (zh) * 2019-01-16 2019-06-11 清华大学 一种基于yolo的特定目标跟踪方法
CN110502705A (zh) * 2019-07-16 2019-11-26 贝壳技术有限公司 一种基于智能终端的电子地图搜索的方法及装置
CN110580707A (zh) * 2018-06-08 2019-12-17 杭州海康威视数字技术股份有限公司 一种对象跟踪方法及系统
CN111310526A (zh) * 2018-12-12 2020-06-19 杭州海康威视数字技术股份有限公司 目标跟踪模型的参数确定方法、装置及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101789128A (zh) * 2010-03-09 2010-07-28 成都三泰电子实业股份有限公司 一种基于dsp的目标检测与跟踪方法以及数字图像处理系统
CN102110296A (zh) * 2011-02-24 2011-06-29 上海大学 一种复杂场景下的运动目标跟踪方法
CN103455797A (zh) * 2013-09-07 2013-12-18 西安电子科技大学 航拍视频中运动小目标的检测与跟踪方法
CN104239843A (zh) * 2013-06-07 2014-12-24 浙江大华技术股份有限公司 一种人脸特征点定位方法及装置
CN105761281A (zh) * 2016-03-23 2016-07-13 沈阳大学 基于双边结构张量的粒子滤波目标跟踪算法及系统
CN106504268A (zh) * 2016-10-20 2017-03-15 电子科技大学 一种基于信息融合的改进Mean‑Shift跟踪方法
CN106570490A (zh) * 2016-11-15 2017-04-19 华南理工大学 一种基于快速聚类的行人实时跟踪方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101789128A (zh) * 2010-03-09 2010-07-28 成都三泰电子实业股份有限公司 一种基于dsp的目标检测与跟踪方法以及数字图像处理系统
CN102110296A (zh) * 2011-02-24 2011-06-29 上海大学 一种复杂场景下的运动目标跟踪方法
CN104239843A (zh) * 2013-06-07 2014-12-24 浙江大华技术股份有限公司 一种人脸特征点定位方法及装置
CN103455797A (zh) * 2013-09-07 2013-12-18 西安电子科技大学 航拍视频中运动小目标的检测与跟踪方法
CN105761281A (zh) * 2016-03-23 2016-07-13 沈阳大学 基于双边结构张量的粒子滤波目标跟踪算法及系统
CN106504268A (zh) * 2016-10-20 2017-03-15 电子科技大学 一种基于信息融合的改进Mean‑Shift跟踪方法
CN106570490A (zh) * 2016-11-15 2017-04-19 华南理工大学 一种基于快速聚类的行人实时跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李博江: ""均值平移算法在尺度和速度变化的目标跟踪中的应用研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
李君浩等: ""基于视觉显著性图与似物性的对象检测"", 《计算机应用》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108876818A (zh) * 2018-06-05 2018-11-23 国网辽宁省电力有限公司信息通信分公司 一种基于似物性和相关滤波的目标跟踪方法
CN110580707A (zh) * 2018-06-08 2019-12-17 杭州海康威视数字技术股份有限公司 一种对象跟踪方法及系统
CN111310526A (zh) * 2018-12-12 2020-06-19 杭州海康威视数字技术股份有限公司 目标跟踪模型的参数确定方法、装置及存储介质
CN111310526B (zh) * 2018-12-12 2023-10-20 杭州海康威视数字技术股份有限公司 目标跟踪模型的参数确定方法、装置及存储介质
CN109871763A (zh) * 2019-01-16 2019-06-11 清华大学 一种基于yolo的特定目标跟踪方法
CN109871763B (zh) * 2019-01-16 2020-11-06 清华大学 一种基于yolo的特定目标跟踪方法
CN110502705A (zh) * 2019-07-16 2019-11-26 贝壳技术有限公司 一种基于智能终端的电子地图搜索的方法及装置

Also Published As

Publication number Publication date
CN106960447B (zh) 2020-01-21

Similar Documents

Publication Publication Date Title
CN106960447A (zh) 一种视频目标跟踪的位置修正方法及系统
CN112541483B (zh) Yolo和分块-融合策略结合的稠密人脸检测方法
CN107943837A (zh) 一种前景目标关键帧化的视频摘要生成方法
CN110084831A (zh) 基于YOLOv3多伯努利视频多目标检测跟踪方法
CN113065474B (zh) 行为识别方法、装置及计算机设备
CN111767847B (zh) 一种集成目标检测和关联的行人多目标跟踪方法
CN109800770A (zh) 一种实时目标检测的方法、系统及装置
CN109165538A (zh) 基于深度神经网络的条形码检测方法及装置
CN111091101B (zh) 基于一步法的高精度行人检测方法、系统、装置
CN111612817A (zh) 基于深浅特征自适应融合与上下文信息的目标跟踪方法
CN107633226A (zh) 一种人体动作跟踪识别方法及系统
CN108664838A (zh) 基于改进rpn深度网络的端到端的监控场景行人检测方法
CN109598684A (zh) 结合孪生网络的相关滤波跟踪方法
CN106251362B (zh) 一种基于快速相关邻域特征点的滑窗目标跟踪方法及系统
CN109146845A (zh) 基于卷积神经网络的头颅影像标志点检测方法
CN112541441A (zh) 一种融合相关滤波的gm-phd视频多目标跟踪方法
CN111191531A (zh) 一种快速行人检测方法及系统
CN110443139A (zh) 一种面向分类的高光谱遥感影像噪声波段探测方法
CN108734109A (zh) 一种面向图像序列的视觉目标跟踪方法及系统
CN106097369A (zh) 一种smt物料盘x射线透视图像分割检测与计数统计方法及装置
WO2018028102A1 (zh) 一种仿记忆引导的模式识别方法
CN110132276B (zh) 一种基于行人运动状态的自适应步长估计方法
CN104809455B (zh) 基于可判别性二叉树投票的动作识别方法
CN110245672B (zh) 基于快速视网膜特征点匹配及多尺度分割的浮选破碎气泡检测方法
CN111860248A (zh) 一种基于孪生渐进注意引导融合网络的视觉目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant