CN107423702B - 基于tld跟踪系统的视频目标跟踪方法 - Google Patents

基于tld跟踪系统的视频目标跟踪方法 Download PDF

Info

Publication number
CN107423702B
CN107423702B CN201710595737.6A CN201710595737A CN107423702B CN 107423702 B CN107423702 B CN 107423702B CN 201710595737 A CN201710595737 A CN 201710595737A CN 107423702 B CN107423702 B CN 107423702B
Authority
CN
China
Prior art keywords
image
value
target
matrix
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710595737.6A
Other languages
English (en)
Other versions
CN107423702A (zh
Inventor
赵亦工
宗家辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201710595737.6A priority Critical patent/CN107423702B/zh
Publication of CN107423702A publication Critical patent/CN107423702A/zh
Application granted granted Critical
Publication of CN107423702B publication Critical patent/CN107423702B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches

Abstract

本发明属于目标检测和目标跟踪领域,公开了一种基于TLD跟踪系统的视频目标跟踪方法,包括:在跟踪目标的起始帧,根据给出所需要跟踪目标的位置和大小信息,生成子图像窗口,并对CSK跟踪器和检测器进行初始化;跟踪器根据上一帧跟踪到的目标以及当前帧跟踪到的目标估计出本帧图像中目标的位置;用检测器找到在当前帧中所有可能出现的目标区域;对跟踪器和检测器的结果进行综合,判断出当前帧是否存在目标,如果不存在目标,则对下一帧进行处理;如果存在目标,就判断目标是否有效;如果有效,则进入学习模块,完成检测器和跟踪器的在线更新,并开始对下一帧进行处理;能够解决目标出现遮挡时对目标进行有效检测的问题。

Description

基于TLD跟踪系统的视频目标跟踪方法
技术领域
本发明属于目标检测和目标跟踪技术领域,尤其涉及一种基于TLD(Tracking-Learning-Detection,跟踪学习检测)跟踪系统的视频目标跟踪方法。
背景技术
运动目标的检测和跟踪是计算机视觉领域重要的研究内容之一。通过人眼将运动的目标从视频序列中分析识别出来是非常容易的,但是对于计算机来说却是很困难的,因为跟踪目标的形态变化、背景混杂以及光照变化都会对跟踪带来巨大的干扰。运动的目标跟踪与检测是利用数字图像处理以及视频分析等相关技术对视频序列图像进行处理分析,最终使计算机理解视频序列中的客观背景和目标。实时跟踪已经在监控安防、智能机器人、遥感探测和航天航空等领域发挥着重要作用,研究此问题具有重要的应用价值。
运动目标检测与跟踪在工业上安防、航天航空、遥感探测、智能机器人等领域发挥着重要作用。未来基于计算机视觉的目标跟踪系统不仅在电子技术、工业检测等传统行业具有巨大的市场,在基础设施的配套工程,如:城市道路监控,以及自动驾驶汽车、无人飞机等新型产业将迎来广阔的应用前景。因此,研究具有稳定性、实时性、精确性的目标跟踪算法有着十分重要的应用价值,同时也会面临着严峻的挑战。
在对TLD研究和测试的过程中,TLD算法对于遮挡的目标跟踪效果并不理想。
发明内容
针对上述现有技术的缺点,本发明的目的在于提供一种基于TLD跟踪系统的视频目标跟踪方法,在原有TLD框架中的引入CSK(Circulant-Structure-Kernel循环矩阵结构)跟踪器并对原有的检测框架进行修改,能够解决目标出现遮挡时对目标进行有效检测的问题。
为达到上述目的,本发明采用如下技术方案予以实现。
一种基于TLD跟踪系统的视频目标跟踪方法,所述视频目标跟踪方法基于视频目标跟踪系统实现,所述视频目标跟踪系统包含:跟踪滤波器,重合度检测器,随机森林分类器,以及最近邻分类器;所述视频目标跟踪方法包括如下步骤:
步骤1,获取视频中的第一帧图像,人为标定目标区域,在所述第一帧图像中获取以所述目标区域为中心,所述目标区域N倍大小的图像片;所述人为标定的目标区域为矩形区域;
步骤2,根据所述图像片的大小构造二维高斯分布函数以及汉明窗,进而根据所述图像片、所述二维高斯分布函数以及所述汉明窗,分别对跟踪滤波器的第一参数、第二参数进行初始化;
步骤3,以所述目标区域的大小为基准,构造多个不同尺度的矩形框;
第一尺度矩形框从所述第一帧图像的左上角开始,每次移动一个像素位置,从左往右,从上往下,依次遍历整个第一帧图像;在所述第一尺度矩形框遍历整个第一帧图像的过程中,记录该第一尺度矩形框的所有位置以及第一尺度矩形框在每个位置时与目标区域的重合度;所述第一尺度矩形框为多个不同尺度的矩形框中的任意一个矩形框;重合度的值大于0且小于1;
采用集合grid记录多个不同尺度的矩形框遍历所述第一帧图像过程中的所有位置以及每个尺度矩形框在每个位置时与目标区域的重合度,完成对重合度检测器的初始化;
步骤4,设置第一重合度阈值,第二重合度阈值,且第一重合度阈值大于第二重合度阈值;
对于集合grid,将其中重合度大于所述第一重合度阈值的矩形框对应的信息记录在集合good-boxes中,将其中重合度小于所述第二重合度阈值的矩形框对应的信息记录在集合bad-boxes中,将其中重合度最大的一个矩形框对应的信息记录在集合best-box中;矩形框对应的信息至少包含该矩形框的变换尺度,该矩形框的位置以及该矩形框与目标区域的重合度;
步骤5,将集合best-box中的矩形框对应的图像片进行归一化并缩小得到正样本图像片,将所述正样本图像片存储在集合pEx中作为一个正样本;矩形框对应的图像片是指该矩形框在第一帧图像中框定的图像区域;
将集合bad-boxes中的每个矩形框对应的图像片进行归一化并缩小得到负样本图像片,将得到的所有负样本图像片存储在集合nEx中作为负样本;
选取集合good-boxes中重合度较大的前t个矩形框,并将所述前t个矩形框对应的图像片分别进行f次仿射变换,得到f*t个正样本图像片;分别提取所述f*t个正样本图像片的特征值并存储于集合pX中,将每个正样本图像片的特征值的标记符记为1,标记符记为1表示该标记符对应的特征值为正样本的特征值;
分别提取集合bad-boxes中的每个矩形框对应的图像片的特征值并存储于集合nX中,并将每个矩形框对应的图像片的特征值的标记符记为0,标记符记为0表示该标记符对应的特征值为负样本的特征值;
将集合pX中的所有特征值与集合nX中的一半特征值组成一个含有正负样本特征值的集合fern-data;将集合pEx中的一个正样本图像片与集合nEx中的一半负样本图像片组成一个含有正负样本图像片的集合nn-data,且集合pEx中的一个正样本图像片为集合nn-data中的第一个元素;
步骤6,初始化随机森林分类器:遍历集合fern-data中的所有样本特征值,若特征值的标记符为1,则确定该特征值为正样本特征值的后验概率;若特征值的标记符为0,则确定该特征值为负样本特征值的后验概率;
步骤7,初始化最近邻分类器:构造集合pxx和集合nxx,集合pxx用于存储训练好的正样本,集合nxx用于存储训练好的负样本;
设置相关相似度分类阈值,将集合nn-data中的第一个元素存放在集合pxx中,将集合nn-data中的第二个元素存放在集合nxx中,从集合nn-data中的第三个元素开始遍历,计算集合nn-data中从三个元素开始的每个元素的相关相似度;
若集合nn-data中从三个元素开始的每个元素的相关相似度大于所述相关相似度分类阈值,则将该元素存储于集合nxx中,否则,不做处理;
步骤8,获取需要进行目标跟踪的图像帧,采用跟踪滤波器对所述需要进行目标跟踪的图像帧进行跟踪,得到跟踪到的目标中心位置,从而确定跟踪到的目标区域;
采用跟踪到的目标区域对所述跟踪滤波器的第一参数、第二参数进行更新;
步骤9,采用重合度检测器对所述需要进行目标跟踪的图像帧进行检测,得到需要进行目标跟踪的图像帧中所有可能的目标区域;
步骤10,采用随机森林分类器对所有可能的目标区域分别进行检测,确定每个可能的目标区域中是否存在目标,从而得到可能存在目标的图像区域;
步骤11,采用最近邻分类器计算每个可能存在目标的图像区域的相关相似度,从而确定存在潜在目标的图像区域;
步骤12,对跟踪器跟踪到的目标区域和所述最近邻分类器确定的存在潜在目标的图像区域进行综合处理,得到目标跟踪结果图像块;
步骤13,根据所述目标跟踪结果图像块,对所述重合度检测器、所述随机森林分类器以及所述最近邻分类器进行更新学习;
步骤14,重复执行步骤8值步骤13,直到处理完视频中所有需要进行目标跟踪的图像帧,完成视频目标跟踪过程。
本方案增强了跟踪目标的准确性,减少了目标在复杂背景下运动和在发生遮挡时跟踪丢失的概率,实现了对TLD跟踪算法中检测模块的优化,检测模块耗时更少。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的视频目标跟踪系统的框架结构示意图;
图2为本发明实现之后对目标在复杂背景下进行跟踪的效果图;
图3为本发明实现之后对目标发生遮挡时进行跟踪的效果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种基于TLD跟踪系统的视频目标跟踪方法,参考图1,所述视频目标跟踪方法基于视频目标跟踪系统实现,所述视频目标跟踪系统包含:跟踪滤波器,重合度检测器,随机森林分类器,以及最近邻分类器;所述视频目标跟踪方法包括如下步骤:
步骤1,获取视频中的第一帧图像,人为标定目标区域,在所述第一帧图像中获取以所述目标区域为中心,所述目标区域N倍大小的图像片;所述人为标定的目标区域为矩形区域。
示例性的,N可取2-3倍。
步骤2,根据所述图像片的大小构造二维高斯分布函数以及汉明窗,进而根据所述图像片、所述二维高斯分布函数以及所述汉明窗,分别对跟踪滤波器的第一参数、第二参数进行初始化。
步骤2具体包括如下子步骤:
(2a)构造与所述图像片小大相同的矩形框sz,以及与所述图像片小大相同的汉明窗cos_win,所述汉明窗cos_win中位于(ic,jc)处的函数值cos_win(ic,jc)为:
Figure BDA0001355852700000061
其中,ic∈(1,heightsz),jc∈(1,widthsz),heightsz表示所述矩形框sz的高,widthsz表示所述矩形框sz的宽;
(2b)构造与所述矩形框sz大小相同的第一矩阵yr和第二矩阵yc,所述第一矩阵yr中元素的值为:
Figure BDA0001355852700000062
所述第二矩阵yc中元素的值为:
Figure BDA0001355852700000063
其中,rh∈(1,heightry),rl∈(1,widthry),heightry表示所述第一矩阵yr的高,widthry表示所述第一矩阵yr的宽;ch∈(1,heightcy),cl∈(1,widthcy),heightcy表示所述第二矩阵yc的高,widthcy表示所述第二矩阵yc的宽;
(2c)根据所述第一矩阵yr和第二矩阵yc,得到二维高斯分布函数y,其中所述二维高斯分布函数y中位于(my,ny)处的函数值
Figure BDA0001355852700000071
其中,my∈(1,heightsz),ny∈(1,widthsz),heightsz表示所述矩形框sz的高,widthsz表示所述矩形框sz的宽;output_sigma为预设参数,
Figure BDA0001355852700000072
(2d)将所述图像片转换为灰度图像,并将所述灰度图像的像素值与所述汉明窗对应位置处的函数值分别相乘,得到临时矩阵,对所述临时矩阵进行归一化后(归一化在(-0.5-0.5)之间)得到矩阵xinit,将矩阵xinit作为跟踪滤波器的第一参数zinit
(2e)分别求得矩阵xinit的DFT变换矩阵xfinit,以及矩阵zinit的DFT变换矩阵zfinit,将矩阵xinit的DFT变换矩阵xfinit与矩阵zinit的DFT变换矩阵zfinit对应位置元素点乘得到矩阵xzfinit,然后对xzfinit进行逆傅里叶变换得到xzinit
从而求得核函数kinit:所述核函数kinit为heightinitk行widthinitk列的矩阵;
Figure BDA0001355852700000073
其中,kinit(minitk,ninitk)表示核函数kinit中第(minitk,ninitk)位置处的函数值,minitk∈(1,heightinitk),ninitk∈(1,widthinitk),heightinitk表示核函数kinit的行数,widthinitk表示核函数kinit的列数,xx表示矩阵xinit的二范数,zz表示矩阵zinit的二范数,xzcul表示矩阵xzinit的循环移位;
(2f)确定跟踪滤波器的第二参数
Figure BDA0001355852700000074
其中,F(y)表示二维高斯分布函数y的DFT变换,F(k)表示核函数kinit的DFT变换。
步骤3,以所述目标区域的大小为基准,构造多个不同尺度的矩形框;(具体的,多个不同尺度的矩形框可以为18个到21个之间)。
第一尺度矩形框从所述第一帧图像的左上角开始,每次移动一个像素位置,从左往右,从上往下,依次遍历整个第一帧图像;在所述第一尺度矩形框遍历整个第一帧图像的过程中,记录该第一尺度矩形框的所有位置以及第一尺度矩形框在每个位置时与目标区域的重合度;所述第一尺度矩形框为多个不同尺度的矩形框中的任意一个矩形框;重合度的值大于0且小于1;
采用集合grid记录多个不同尺度的矩形框遍历所述第一帧图像过程中的所有位置以及每个尺度矩形框在每个位置时与目标区域的重合度,完成对重合度检测器的初始化。
步骤4,设置第一重合度阈值Threshodgood(取值为0.6),第二重合度阈Threshodbad(取值为0.2)值,且第一重合度阈值大于第二重合度阈值;
对于集合grid,将其中重合度大于所述第一重合度阈值的矩形框对应的信息记录在集合good-boxes中,将其中重合度小于所述第二重合度阈值的矩形框对应的信息记录在集合bad-boxes中,将其中重合度最大的一个矩形框对应的信息记录在集合best-box中;矩形框对应的信息至少包含该矩形框的变换尺度,该矩形框的位置以及该矩形框与目标区域的重合度。
步骤5,将集合best-box中的矩形框对应的图像片进行归一化并缩小得到正样本图像片,将所述正样本图像片存储在集合pEx中作为一个正样本;矩形框对应的图像片是指该矩形框在第一帧图像中框定的图像区域;
具体的,以下提到的所有对图像片进行归一化并缩小,是指将图像片归一化为均值为0大小为n*n(n取值为15)的小图像块。
将集合bad-boxes中的每个矩形框对应的图像片进行归一化并缩小得到负样本图像片,将得到的所有负样本图像片存储在集合nEx中作为负样本;
选取集合good-boxes中重合度较大的前t(t取值为10-15,优选取值为10)个矩形框,并将所述前t个矩形框对应的图像片分别进行f次(20次)仿射变换,得到f*t个正样本图像片;分别提取所述f*t个正样本图像片的特征值并存储于集合pX中,将每个正样本图像片的特征值的标记符记为1,标记符记为1表示该标记符对应的特征值为正样本的特征值;
分别提取集合bad-boxes中的每个矩形框对应的图像片的特征值并存储于集合nX中,并将每个矩形框对应的图像片的特征值的标记符记为0,标记符记为0表示该标记符对应的特征值为负样本的特征值;
将集合pX中的所有特征值与集合nX中的一半特征值组成一个含有正负样本特征值的集合fern-data;将集合pEx中的一个正样本图像片与集合nEx中的一半负样本图像片组成一个含有正负样本图像片的集合nn-data,且集合pEx中的一个正样本图像片为集合nn-data中的第一个元素。
步骤5中,分别提取所述f*t个正样本图像片的特征值并存储于集合pX中,具体包括:
(5a)对于每个尺度的矩形框,在每个尺度的矩形框中随机选择S(S可取130)个坐标对,根据所述S个坐标对从每个矩形框对应的图像片中获取S个像素对,将S个像素对分为D(D可取10)组,每组d(d可取13)个像素对,且S=D*d;
(5b)提取f*t个正样本图像片的特征值:根据每个正样本图像片对应的矩形框从每个正样本图像片中获取S个像素对,且所述S个像素对包含D组像素对,每组像素对包含d个像素对,若d个像素对中每个像素对的前一个像素大于后一个像素,则产生二进制数1,否则产生二进制数0,从而d个像素对产生d位二进制数,从而每个正样本图像片产生D组d位二进制数,将得到的D组d位二进制数作为对应正样本图像片的特征值。
步骤6,初始化随机森林分类器:遍历集合fern-data中的所有样本特征值,若特征值的标记符为1,则确定该特征值为正样本特征值的后验概率;若特征值的标记符为0,则确定该特征值为负样本特征值的后验概率。
步骤6具体包括如下子步骤:
(6a)构造后验概率模型posteriors作为随机森林分类器,所述后验概率模型posteriors为一个包含D个元素的集合,且每个元素包含2d个小集合,每个小集合的初值为0;
构造第一集合pcounter和第二集合ncounter,所述第一集合pcounter和所述第二集合ncounter分别包含D个元素,每个元素包含2d个小集合,每个小集合的初值为0;
(6b)集合fern-data中的每个元素都是由D个d位二进制数组成的,每个d位二进制数的大小在0至2d-1之间;
(6c)获取集合fern-data中的第ifern个元素pn=fern_data[ifern],令pn=fern_data[ifern];
fern_data[ifern]表示集合fern-data中的第ifern个元素,记为集合pn,集合pn包含D个元素,每个元素是一个d位二进制数,且其d位二进制数的大小在0至2d-1之间,ifern∈(1,Q);Q表示集合fern-data中的元素总个数;ifern的初值为1;
(i)若fern_data[ifern]是标记为1的正样本特征值:
(a1)确定该特征值为正样本特征值的后验概率vote1=vote+posteriors[ip][pn[ip]]
其中,vote的初值为0,ip表示遍历后验概率模型posteriors中元素、集合pn中元素的变量,ip∈(1,D),ip的初值为1;
其中,posteriors[ip][pn[ip]]表示集合posteriors中第ip个元素的第pn[ip]个集合的值,pn[ip]表示集合pn中第ip个元素的值,pn[ip]的数值范围在0至2d-1之间;
(b1)将vote1的值赋给vote,且ip的值加1,重复执行子步骤(a1),直到ip的值大于D,得到该特征值为正样本特征值的后验概率vote1;
设置第一后验概率阈值Thresholdvote(取值为6);
(c1)若后验概率vote1的值小于所述第一后验概率阈值,则对第一集合pcounter中第p个元素的第pn[p]个集合pcounter[p][pn[p]]的值加1;
p的初值为1,p∈(1,D),pn[p]表示集合pn中第p个元素的值,pn[p]的数值范围在0至2d-1之间,pcounter[p][pn[p]]表示第一集合pcounter中第p个元素的第pn[p]个集合的值;
令:
posteriors[p][pn[p]]=pcounter[p][pn[p]]/(pcounter[p][pn[p]]+ncounter[p][pn[p]])
其中,posteriors[p][pn[p]]表示集合posteriors中第p个元素的第pn[p]个集合的值,ncounter[p][pn[p]]表示第二集合ncounter中第p个元素的第pn[p]个集合的值;
(d1)令p的值加1,重复执行子步骤(c1),直到p的值大于D;
(ii)若得到标记为0的负样本特征值:
(a2)确定该特征值为负样本特征值的后验概率vote2=vote+posteriors[in][pn[in]];
其中,vote的初值为0,in表示遍历后验概率模型posteriors中元素、集合pn中元素的变量,in∈(1,D),in的初值为1;
其中,posteriors[in][pn[in]]表示集合posteriors中第in个元素的第pn[in]个集合的值,pn[in]表示集合pn中第in个元素的值,pn[in]的数值范围在0至2d-1之间;
(b2)将vote2的值赋给vote,且in的值加1,重复执行子步骤(a2),直到in的值大于D,得到该特征值为负样本特征值的后验概率vote2;
设置第二后验概率阈值Thresholdnvote(取值为5);
(c2)若后验概率vote2的值大于所述第二后验概率阈值,则对第二集合ncounter中第in个元素的第pn[in]个集合ncounter[in][pn[in]]的值加1;
in的初值为1,in∈(1,D),pn[in]表示集合pn中第in个元素的值,pn[in]的数值范围在0至2d-1之间,ncounter[in][pn[in]]表示第二集合ncounter中第in个元素的第pn[in]个集合的值;
令:
posteriors[in][pn[in]]=ncounter[in][pn[in]]/(pcounter[in][pn[in]]+ncounter[in][pn[in]])
其中,posteriors[in][pn[in]]表示集合posteriors中第in个元素的第pn[in]个集合的值,ncounter[in][pn[in]]表示第二集合ncounter中第in个元素的第pn[in]个集合的值;
(d2)令in的值加1,重复执行子步骤(c2),直到in的值大于D;
(6d)令ifern的值加1,重复执行子步骤(6c),直到ifern>Q,遍历完集合fern-data中的所有元素,完成对后验概率模型posteriors的初始化。
步骤7,初始化最近邻分类器:构造集合pxx和集合nxx,集合pxx用于存储训练好的正样本,集合nxx用于存储训练好的负样本;
设置相关相似度分类阈值Thresholdconf(取值为0.5),将集合nn-data中的第一个元素存放在集合pxx中,将集合nn-data中的第二个元素存放在集合nxx中,从集合nn-data中的第三个元素开始遍历,计算集合nn-data中从三个元素开始的每个元素的相关相似度;
若集合nn-data中从三个元素开始的每个元素的相关相似度大于所述相关相似度分类阈值,则将该元素存储于集合nxx中,否则,不做处理。
步骤7中,从集合nn-data中的第三个元素开始遍历,计算集合nn-data中从三个元素开始的每个元素的相关相似度,具体包括如下子步骤:
(7a)获取集合nn-data中的第三个样本图像片,将第三个样本图像片与集合pxx中的每个样本图像片分别进行模板匹配,得到第三个样本图像片与集合pxx中的每个样本图像片的相关系数NCC:
Figure BDA0001355852700000131
其中,Mncc为样本图像片的宽度,Nncc为样本图像片的高度,图像片souimg是从集合nn-data中获取的样本图像片,图像片是temp是集合pxx中的样本图像片,incc∈(1,Mncc),jncc∈(1,Nncc);
(7b)根据集合nn-data中的第三个样本图像片与集合pxx中的每个样本图像片的相关系数,从而确定第一最大的相关系数maxP;
(7c)得到集合nn-data中的第三个样本图像片与集合nxx中的每个样本图像片的相关系数,从而确定第二最大的相关系数maxN;
(7d)设置第一参数dP=1-maxP,第二参数dN=1-maxN,从而得到集合nn-data中的第三个样本图像片的相关相似度conf=dN/(dN+dP);
(7e)遍历集合nn-data中的第三个样本图像片之后的每个样本图像片,得到集合nn-data中每个样本图像片的相关相似度。
步骤8,获取需要进行目标跟踪的图像帧,采用跟踪滤波器对所述需要进行目标跟踪的图像帧进行跟踪,得到跟踪到的目标中心位置,从而确定跟踪到的目标区域;
采用跟踪到的目标区域对所述跟踪滤波器的第一参数、第二参数进行更新。
步骤8具体包括如下子步骤:
(8a)获取需要进行目标跟踪的图像帧,将所述需要进行目标跟踪的图像帧转换为灰度图像,得到所述灰度图像中以上一帧图像目标位置为中心,与矩形框sz大小相同的图像片,将与矩形框sz大小相同的图像片的像素值与所述汉明窗对应位置处的函数值分别相乘,得到临时矩阵,对所述临时矩阵进行归一化后得到矩阵xi,从而求得本帧图像对应的核函数,将本帧图像对应的核函数带入跟踪器的第二参数中,求得响应最大值点的位置maxi,将其作为跟踪滤波器跟踪到的目标中心位置,下标i表示需要进行目标跟踪的图像帧为第i帧图像;
(8b)在需要进行目标跟踪的图像帧中,获取以maxi为中心,大小与矩形框sz相同的图像片,将其与汉明窗相乘得到的矩阵进行归一化,得到矩阵xi c,令new_zi=xi c;从而根据矩阵xi c和矩阵new_zi求得新的核函数kci,再根据新的核函数kc i求得new_alphafi
(8c)根据下式对跟踪滤波器的第一参数zi和第二参数alphafi进行更新:
zi=(1-λ)zi-1+λ×new_zi
alphafi=(1-λ)alphafi-1+λ×new_aphafi
其中,λ为学习率,zi-1为第i-1帧图像中跟踪滤波器的第一参数值,alphafi-1为第i-1帧图像中跟踪滤波器的第二参数值,当i=2时,zi-1=zinit
然后根据上一帧的目标位置与本帧计算的maxi求得两帧中目标的重合度,如果重合度大于Threshoidoverlap(取值为0.3),认为是CSK跟踪滤波器追踪到了目标。如果重合度小于Threshoidoverlap,认为CSK跟踪滤波器追踪到的目标是错误的,CSK跟踪滤波器追踪失败。
当重合度大于Threshoidoverlap以后,取出CSK跟踪滤波器追踪到的图像片(就是追踪到的目标块),把这个图像块归一化并缩小,对这个图像片分别对集合pxx和nxx进行模板匹配,可以求得该图像块的相关相似度。如果这个相关相似度大于Threrec(取值为0.5),会最终判定CSK跟踪滤波器追踪到的目标是有效的。如果tcon小于Threrec,就认为CSK跟踪滤波器追踪到的目标是无效的。
步骤9,采用重合度检测器对所述需要进行目标跟踪的图像帧进行检测,得到需要进行目标跟踪的图像帧中所有可能的目标区域。
步骤9具体包括:
获取重合度检测器中集合grid记录的多个不同尺度的矩形框,确定所述多个不同尺度的矩形框中重合度大于预设重合度的矩形框,根据重合度大于预设重合度的矩形框的位置,确定每个重合度大于预设重合度的矩形框在需要进行目标跟踪的图像帧中框定的图像区域,将其作为需要进行目标跟踪的图像帧中所有可能的目标区域。
步骤10,采用随机森林分类器对所有可能的目标区域分别进行检测,确定每个可能的目标区域中是否存在目标,从而得到可能存在目标的图像区域。
获取步骤9中通过检测的矩形框所对应的图像块,在每个图像块中都会选取S对坐标对(此处选取的坐标对与初始化选取的坐标对位置是一样的),S个坐标对会有S对像素值,分成D个组,一个组由d个像素对,d个像素对相减会产生d个二进制的数(如果一个坐标对中靠前的坐标像素值小于后面的像素值,则为0,如果前面的像素值大于后面的像素值,则为1)。因为d位二进制数可以表示成一个数字。所以可以将这D个数分别带入公式vote=vote+posteriors[e][pn[e]]求和得到vote。此时如果vote大于Thresholdvote(取值为6),认为该图像块有前景目标,也就是存在目标,如果vote小于Thresholdvote,认为该图像块没有目标,这就是随机森林检测器。
步骤11,采用最近邻分类器计算每个可能存在目标的图像区域的相关相似度,从而确定存在潜在目标的图像区域。
通过步骤10第二次检测的图像块也可能有很多也可能是零。如果检测到的图像块为0,就认为目标已经消失在视频帧上。如果不等于零,这时候选取前SUM(取值为100)个最大vote的图像块作为前两次检测的结果(个数不到SUM的就按照检测到的真实个数算)。以上通过前两次的检测的图像块称为ims,对ims进行最终的最近邻检测器的检测,首先先将图像ims全部归一化为均值为0,大小为n*n的图像块imgs,然后计算每个图像块imgs[iimg]的相关相似度rconf[irconf](rconf[irconf]就是图像块imgs[iimg]求得的相关相似度,iimg代表的是用于遍历通过前两个检测器的图像块集合imgs的变量,初始值为1,irconf代表的是用于遍历集合rconf时的变量,初始值为1),如果rconf[irconf]大于Trconf(取值为0.65),认为这个图像块是潜在的目标。
需要说明的是,检测器由三个小的检测器级联而成;分别是重合度检测器、随机森林分类器以及最近邻分类器。检测器会用不同尺度大小的窗口遍历整个视频帧,当窗口与上一帧图像中目标的重合度大于0.2时,就可以通过重合度检测器,进入随机森林检测器。这样可以避免遍历整幅图像来寻找潜在目标。
步骤12,对跟踪器跟踪到的目标区域和所述最近邻分类器确定的存在潜在目标的图像区域进行综合处理,得到目标跟踪结果图像块。
对跟踪器和检测器的结果进行综合处理,由上一步结果可以知道,最终通过所有检测器的图像块all_imgs的数量可能不止等于1,这时首先把这些图像块all_imgs进行分类,如果图像块all_imgs的数量等于1,就认为那唯一一个图像块就是最终的检测器检测到的图像块。图像块all_imgs的数量等于2,计算这两个图像块的重合度,如果两个图像块的重合度小于THREoverlap(取值为0.5),认为检测到了两个不同类别的图像块,如果重合度大于THREoverlap,认为检测到的是同一个类别的图像块。同理,如果检测到的图像块all_imgs的数量大于等于三个,同样可以用重合度的计算原理来把这些图像块分为几类。然后按类别分别求得每个类别的平均值图像块;
例如:最终有A个类别,每个类别有B个图像块,分别对每个类别的图像块求一个平均的图像块,即可代表这个类别:
Figure BDA0001355852700000171
B代表每个类别有B个图像块,widthwi a代表的是第a类别的第wi个图像块的宽度,wi∈(1,B),初始值为1,widtha代表的是第a类别图像块的平均宽度,a∈(1,A),a的初始值为1。
Figure BDA0001355852700000172
B代表每个类别有B个图像块,heighthi a代表的是第a类别的第hi个图像块的高度,hi∈(1,B),初始值为1,heighta代表的是第a类别图像块的平均高度,a∈(1,A),a的初始值为1。
Figure BDA0001355852700000173
B代表每个类别有B个图像块,Xxxi代表的是第a类别的第xxi个图像块的横坐标,xxi∈(1,B),初始值为1,Xa代表的是a类别图像块的平均横坐标,a∈(1,A),a的初始值为1。
Figure BDA0001355852700000174
B代表每个类别有B个图像块,Yyyi代表的是第a类别的第yyi个图像块的纵坐标,yyi∈(1,B),初始值为1,Ya代表的是a类别图像块的平均纵坐标,a∈(1,A),a的初始值为1。
到此,每个类别的均值图像块都已经求到。
如果追踪器追踪到目标:用CSK跟踪器跟踪到的目标与检测器检测到的A个类别的图像块分别进行重合度计算,如果重合度小于ThreCovlap(取值为0.5),且检测器检测到的图像块的相关相似度大于CSK追踪到的图像块的相关相似度,说明检测器和追踪器有歧义。最后累计求和得到KK个有歧义的图像块,如果KK=1,说明检测器检测到的图像块比追踪器追踪到的图像块更加准确,检测器检测到的图像块就是最终TLD系统在当前帧追踪到的目标,如果KK的值大于1,只需要求得追踪器追踪到的图像块与检测器检测到的图像块的重合度(此时检测器检测到的图像块是通过三个检测器而且还没有分类别的图像块),求得重合度大于ThreDovlap(取值为0.7)的图像块的个数,如果个数大于0,就把追踪到的图像块与检测到的图像块进行加求平均求得最终的跟踪目标的图像块。
如果跟踪器没有跟踪到目标,检测器检测到了cbb个类别的图像块,对每个类别的图像块求平均图像块,此时,如果cbb的大小等于1,TLD跟踪到的目标就是检测器检测到的目标,如果cbb的个数大于1,说明目标不在图像中。
步骤13,根据所述目标跟踪结果图像块,对所述重合度检测器、所述随机森林分类器以及所述最近邻分类器进行更新学习。
根据追踪和检测到的目标进行在线更新学习,记由上述步骤最终追踪到的目标块为current,重新求得集合grid中每个矩形框与当前追踪到的图像块current的重合度,用于下一帧图像的检测。
然后把图像块current归一化为均值为0,大小为n*n的图像块current_object。求得图像块current_object的相关相似度c_conf,如果c_conf小于Thrdcon(取值为0.5),认为该样本不值得让检测器学习,直接返回,准备处理下一帧。如果c_conf大于Thrdcon,则接下来让检测器学习:把集合good_boxes,集合bad_boxes和best_box全部清空,然后重新遍历集合gird,求得重合度最大的矩形框即为best_box,把重合度大于Threshodgood的矩矩形框存放在good_boxes,重合度小于Threshodbad的矩形框存放在bad_boxes中。
对于上述中获得的good_boxes,选取重合度最大的前ten个作为最终的good_boxes。然后对good_boxes中的每个矩形框进行f次仿射变换。经过f次仿射变换之后就会有ten*f个正样本。对每个正样本进行特征提取,先将初始pX进行清空,特征值存储在pX中。并把每个样本获得的特征值标记为1,认为是正样本。把bad_boxes里面的负样本和集合pX里面的样本全部存放在fern_pxx的集合中,此时fern_pxx集合中有正负样本。然后通过fern_pxx对随机森林检测器进行训练,过程跟初始化是一样(就是把初始化时的fern_data换成刚刚得到的fern_pxx)即可完成更新训练,将正样本pEx和负样本bad_boxes存放在集合nn_nxx中,然后对最近邻分类器进行训练,其中过程跟初始化最近邻分类器是一样的(把初始化用的nn_data换成nn_nxx)完成更新训练。
步骤14,重复执行步骤8值步骤13,直到处理完视频中所有需要进行目标跟踪的图像帧,完成视频目标跟踪过程。
由图2可以看出,目标车辆在背景复杂(周围的环境很复杂)的情况下依然可以进行良好的跟踪,同时也并不影响在简单背景下的跟踪;图3可以看到跟踪目标在发生遮挡(前面有别的球员挡住)的时候,TLD同样也可以准确的跟踪到目标,结合这两个效果图,改进的TLD可以更准确的追踪目标。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (4)

1.一种基于TLD跟踪系统的视频目标跟踪方法,其特征在于,所述TLD跟踪系统包含:跟踪滤波器,重合度检测器,随机森林分类器,以及最近邻分类器;所述视频目标跟踪方法包括如下步骤:
步骤1,获取视频中的第一帧图像,在所述第一帧图像中人为标定目标区域,在所述第一帧图像中获取以所述目标区域为中心,且大小为所述目标区域N倍的图像片;所述人为标定的目标区域为矩形区域;
步骤2,根据所述图像片的大小构造二维高斯分布函数以及汉明窗,进而根据所述图像片、所述二维高斯分布函数以及所述汉明窗,分别对跟踪滤波器的第一参数、第二参数进行初始化;
具体包括如下子步骤:
(2a)构造与所述图像片小大相同的矩形框sz,以及与所述图像片小大相同的汉明窗cos_win,所述汉明窗cos_win中位于(ic,jc)处的函数值cos_win(ic,jc)为:
Figure FDA0002479913430000011
其中,ic∈(1,heightsz),jc∈(1,widthsz),heightsz表示所述矩形框sz的高,widthsz表示所述矩形框sz的宽;
(2b)构造与所述矩形框sz大小相同的第一矩阵yr和第二矩阵yc,所述第一矩阵yr中位于(rh,rl)处的元素的值为:
Figure FDA0002479913430000012
所述第二矩阵yc中位于(ch,cl)处的元素的值为:
Figure FDA0002479913430000013
其中,rh∈(1,heightry),rl∈(1,widthry),heightry表示所述第一矩阵yr的高,widthry表示所述第一矩阵yr的宽;ch∈(1,heightcy),cl∈(1,widthcy),heightcy表示所述第二矩阵yc的高,widthcy表示所述第二矩阵yc的宽;
(2c)根据所述第一矩阵yr和第二矩阵yc,得到二维高斯分布函数y,其中所述二维高斯分布函数y中位于(my,ny)处的函数值
Figure FDA0002479913430000021
其中,my∈(1,heightsz),ny∈(1,widthsz),heightsz表示所述矩形框sz的高,widthsz表示所述矩形框sz的宽;output_sigma为预设参数,
Figure FDA0002479913430000022
(2d)将所述图像片转换为灰度图像,并将所述灰度图像的像素值与所述汉明窗对应位置处的函数值分别相乘,得到临时矩阵,对所述临时矩阵进行归一化后得到矩阵xinit,将矩阵xinit作为跟踪滤波器的第一参数zinit
(2e)分别求得矩阵xinit的DFT变换矩阵xfinit,以及矩阵zinit的DFT变换矩阵zfinit,将矩阵xinit的DFT变换矩阵xfinit与矩阵zinit的DFT变换矩阵zfinit对应位置元素点乘得到矩阵xzfinit,然后对xzfinit进行逆傅里叶变换得到矩阵xzinit
从而求得核函数kinit:所述核函数kinit为heightinitk行widthinitk列的矩阵;
Figure FDA0002479913430000023
其中,kinit(minitk,ninitk)表示核函数kinit中第(minitk,ninitk)位置处的函数值,minitk∈(1,heightinitk),ninitk∈(1,widthinitk),heightinitk表示核函数kinit的行数,widthinitk表示核函数kinit的列数,sigma表示指数系数,取值为0.2,xx表示矩阵xinit的二范数,zz表示矩阵zinit的二范数,xzcul表示矩阵xzinit的循环移位;
(2f)确定跟踪滤波器的第二参数
Figure FDA0002479913430000024
其中,F(y)表示二维高斯分布函数y的DFT变换,F(k)表示核函数kinit的DFT变换;
步骤3,以所述目标区域的大小为基准,构造多个不同尺度的矩形框;
第一尺度矩形框从所述第一帧图像的左上角开始,每次移动一个像素位置,从左往右,从上往下,依次遍历整个第一帧图像;在所述第一尺度矩形框遍历整个第一帧图像的过程中,记录该第一尺度矩形框的所有位置以及第一尺度矩形框在每个位置时与目标区域的重合度;所述第一尺度矩形框为多个不同尺度的矩形框中的任意一个矩形框;重合度的值大于0且小于1;
采用集合grid记录多个不同尺度的矩形框遍历所述第一帧图像过程中的所有位置以及每个尺度矩形框在每个位置时与目标区域的重合度,完成对重合度检测器的初始化;
步骤4,设置第一重合度阈值、第二重合度阈值,且第一重合度阈值大于第二重合度阈值;
对于集合grid,将其中重合度大于所述第一重合度阈值的矩形框对应的信息记录在集合good-boxes中,将其中重合度小于所述第二重合度阈值的矩形框对应的信息记录在集合bad-boxes中,将其中重合度最大的一个矩形框对应的信息记录在集合best-box中;矩形框对应的信息至少包含该矩形框的变换尺度、该矩形框的位置以及该矩形框与目标区域的重合度;
步骤5,将集合best-box中的矩形框对应的图像片进行归一化并缩小得到正样本图像片,将所述正样本图像片存储在集合pEx中作为一个正样本;矩形框对应的图像片是指该矩形框在第一帧图像中框定的图像区域;
将集合bad-boxes中的每个矩形框对应的图像片进行归一化并缩小得到负样本图像片,将得到的所有负样本图像片存储在集合nEx中作为负样本;
选取集合good-boxes中重合度较大的前t个矩形框,并将所述前t个矩形框对应的图像片分别进行f次仿射变换,得到f*t个正样本图像片;分别提取所述f*t个正样本图像片的特征值并存储于集合pX中,将每个正样本图像片的特征值的标记符记为1,标记符记为1表示该标记符对应的特征值为正样本的特征值;
分别提取集合bad-boxes中的每个矩形框对应的图像片的特征值并存储于集合nX中,并将每个矩形框对应的图像片的特征值的标记符记为0,标记符记为0表示该标记符对应的特征值为负样本的特征值;
将集合pX中的所有特征值与集合nX中的一半特征值组成一个含有正负样本特征值的集合fern-data;将集合pEx中的一个正样本图像片与集合nEx中的一半负样本图像片组成一个含有正负样本图像片的集合nn-data,且集合pEx中的一个正样本图像片为集合nn-data中的第一个元素;
步骤6,初始化随机森林分类器:遍历集合fern-data中的所有样本特征值,若特征值的标记符为1,则确定该特征值为正样本特征值的后验概率;若特征值的标记符为0,则确定该特征值为负样本特征值的后验概率;
步骤7,初始化最近邻分类器:构造集合pxx和集合nxx,集合pxx用于存储训练好的正样本,集合nxx用于存储训练好的负样本;
设置相关相似度分类阈值,将集合nn-data中的第一个元素存放在集合pxx中,将集合nn-data中的第二个元素存放在集合nxx中,从集合nn-data中的第三个元素开始遍历,计算集合nn-data中从第三个元素开始的每个元素的相关相似度;
具体包括如下子步骤:
(7a)获取集合nn-data中的第三个样本图像片,将第三个样本图像片与集合pxx中的每个样本图像片分别进行模板匹配,得到第三个样本图像片与集合pxx中的每个样本图像片的相关系数NCC:
Figure FDA0002479913430000051
其中,Mncc为样本图像片的宽度,Nncc为样本图像片的高度,图像片souimg是从集合nn-data中获取的样本图像片,图像片temp是集合pxx中的样本图像片,incc∈(1,Mncc),jncc∈(1,Nncc);souimg(incc,jncc)表示图像片souimg中位于(incc,jncc)处的像素值,temp(incc,jncc)表示图像片temp中位于(incc,jncc)处的像素值;
(7b)根据集合nn-data中的第三个样本图像片与集合pxx中的每个样本图像片的相关系数,从而确定第一最大的相关系数maxP;
(7c)得到集合nn-data中的第三个样本图像片与集合nxx中的每个样本图像片的相关系数,从而确定第二最大的相关系数maxN;
(7d)设置第一参数dP=1-maxP,第二参数dN=1-maxN,从而得到集合nn-data中的第三个样本图像片的相关相似度conf=dN/(dN+dP);
(7e)遍历集合nn-data中的第三个样本图像片之后的每个样本图像片,得到集合nn-data中每个样本图像片的相关相似度;
若集合nn-data中从第三个元素开始的每个元素的相关相似度大于所述相关相似度分类阈值,则将该元素存储于集合nxx中,否则,不做处理;
步骤8,获取需要进行目标跟踪的图像帧,采用跟踪滤波器对所述需要进行目标跟踪的图像帧进行跟踪,得到跟踪到的目标中心位置,从而确定跟踪滤波器跟踪到的目标区域;
采用跟踪到的目标区域对所述跟踪滤波器的第一参数、第二参数进行更新;
具体包括如下子步骤:
(8a)获取需要进行目标跟踪的图像帧,将所述需要进行目标跟踪的图像帧转换为灰度图像,得到所述灰度图像中以上一帧图像目标位置为中心,与矩形框sz大小相同的图像片,将与矩形框sz大小相同的图像片的像素值与所述汉明窗对应位置处的函数值分别相乘,得到临时矩阵,对所述临时矩阵进行归一化后得到矩阵xi,从而求得本帧图像对应的核函数,将本帧图像对应的核函数带入跟踪器的第二参数中,求得响应最大值点的位置maxi,将其作为跟踪滤波器跟踪到的目标中心位置,下标i表示需要进行目标跟踪的图像帧为第i帧图像;
(8b)在需要进行目标跟踪的图像帧中,获取以maxi为中心,大小与矩形框sz相同的图像片,将其与汉明窗相乘得到的矩阵进行归一化,得到矩阵xi c,令new_zi=xi c;从而根据矩阵xi c和矩阵new_zi求得新的核函数kc i,再根据新的核函数kc i求得new_alphafi
(8c)根据下式对跟踪滤波器的第一参数zi和第二参数alphafi进行更新:
zi=(1-λ)zi-1+λ×new_zi
alphafi=(1-λ)alphafi-1+λ×new_aphafi
其中,λ为学习率,zi-1为第i-1帧图像中跟踪滤波器的第一参数值,alphafi-1为第i-1帧图像中跟踪滤波器的第二参数值,当i=2时,zi-1=zinit
步骤9,采用重合度检测器对所述需要进行目标跟踪的图像帧进行检测,得到需要进行目标跟踪的图像帧中所有可能的目标区域;
步骤10,采用随机森林分类器对所有可能的目标区域分别进行检测,确定每个可能的目标区域中是否存在目标,从而得到可能存在目标的图像区域;
步骤11,采用最近邻分类器计算每个可能存在目标的图像区域的相关相似度,从而确定存在潜在目标的图像区域;
步骤12,对跟踪滤波器跟踪到的目标区域和所述最近邻分类器确定的存在潜在目标的图像区域进行综合处理,得到目标跟踪结果图像块;
步骤13,根据所述目标跟踪结果图像块,对所述重合度检测器、所述随机森林分类器以及所述最近邻分类器进行更新学习;
步骤14,重复执行步骤8至步骤13,直到得到视频中所有需要进行目标跟踪的图像帧的目标跟踪结果图像块,完成视频目标跟踪过程。
2.根据权利要求1所述的一种基于TLD跟踪系统的视频目标跟踪方法,其特征在于,步骤5中,分别提取所述f*t个正样本图像片的特征值并存储于集合pX中,具体包括:
(5a)对于每个尺度的矩形框,在每个尺度的矩形框中随机选择S个坐标对,根据所述S个坐标对从每个矩形框对应的图像片中获取S个像素对,将S个像素对分为D组,每组d个像素对,且S=D*d;
(5b)提取f*t个正样本图像片的特征值:根据每个正样本图像片对应的矩形框从每个正样本图像片中获取S个像素对,且所述S个像素对包含D组像素对,每组像素对包含d个像素对,若d个像素对中每个像素对的第一个像素大于第二个像素,则产生二进制数1,否则产生二进制数0,从而d个像素对产生d位二进制数,从而每个正样本图像片产生D组d位二进制数,将得到的D组d位二进制数作为对应正样本图像片的特征值。
3.根据权利要求2所述的一种基于TLD跟踪系统的视频目标跟踪方法,其特征在于,步骤6具体包括如下子步骤:
(6a)构造后验概率模型posteriors作为随机森林分类器,所述后验概率模型posteriors为一个包含D个元素的集合,且每个元素包含2d个小集合,每个小集合的初值为0;
构造第一集合pcounter和第二集合ncounter,所述第一集合pcounter和所述第二集合ncounter分别包含D个元素,每个元素包含2d个小集合,每个小集合的初值为0;
(6b)集合fern-data中的每个元素都是由D个d位二进制数组成的,每个d位二进制数的大小在0至2d-1之间;
(6c)获取集合fern-data中的第ifern个元素pn=fern_data[ifern],令pn=fern_data[ifern];
fern_data[ifern]表示集合fern-data中的第ifern个元素,记为集合pn,集合pn包含D个元素,每个元素是一个d位二进制数,且其d位二进制数的大小在0至2d-1之间,ifern∈(1,Q);Q表示集合fern-data中的元素总个数;ifern的初值为1;
(i)若fern_data[ifern]是标记为1的正样本特征值:
(a1)确定该特征值为正样本特征值的后验概率vote1=vote+posteriors[ip][pn[ip]]
其中,vote的初值为0,ip表示遍历后验概率模型posteriors中元素、集合pn中元素的变量,ip∈(1,D),ip的初值为1;
其中,posteriors[ip][pn[ip]]表示集合posteriors中第ip个元素的第pn[ip]个集合的值,pn[ip]表示集合pn中第ip个元素的值,pn[ip]的数值范围在0至2d-1之间;
(b1)将vote1的值赋给vote,且ip的值加1,重复执行子步骤(a1),直到ip的值大于D,得到该特征值为正样本特征值的后验概率vote1;
设置第一后验概率阈值;
(c1)若后验概率vote1的值小于所述第一后验概率阈值,则对第一集合pcounter中第p个元素的第pn[p]个集合pcounter[p][pn[p]]的值加1;
p的初值为1,p∈(1,D),pn[p]表示集合pn中第p个元素的值,pn[p]的数值范围在0至2d-1之间,pcounter[p][pn[p]]表示第一集合pcounter中第p个元素的第pn[p]个集合的值;
令:
posteriors[p][pn[p]]=pcounter[p][pn[p]]/(pcounter[p][pn[p]]+ncounter[p][pn[p]])
其中,posteriors[p][pn[p]]表示集合posteriors中第p个元素的第pn[p]个集合的值,ncounter[p][pn[p]]表示第二集合ncounter中第p个元素的第pn[p]个集合的值;
(d1)令p的值加1,重复执行子步骤(c1),直到p的值大于D;
(ii)若得到标记为0的负样本特征值:
(a2)确定该特征值为负样本特征值的后验概率vote2=vote+posteriors[in][pn[in]];
其中,vote的初值为0,in表示遍历后验概率模型posteriors中元素、集合pn中元素的变量,in∈(1,D),in的初值为1;
其中,posteriors[in][pn[in]]表示集合posteriors中第in个元素的第pn[in]个集合的值,pn[in]表示集合pn中第in个元素的值,pn[in]的数值范围在0至2d-1之间;
(b2)将vote2的值赋给vote,且in的值加1,重复执行子步骤(a2),直到in的值大于D,得到该特征值为负样本特征值的后验概率vote2;
设置第二后验概率阈值;
(c2)若后验概率vote2的值大于所述第二后验概率阈值,则对第二集合ncounter中第in个元素的第pn[in]个集合ncounter[in][pn[in]]的值加1;
in的初值为1,in∈(1,D),pn[in]表示集合pn中第in个元素的值,pn[in]的数值范围在0至2d-1之间,ncounter[in][pn[in]]表示第二集合ncounter中第in个元素的第pn[in]个集合的值;
令:
posteriors[in][pn[in]]=ncounter[in][pn[in]]/(pcounter[in][pn[in]]+ncounter[in][pn[in]])
其中,posteriors[in][pn[in]]表示集合posteriors中第in个元素的第pn[in]个集合的值,ncounter[in][pn[in]]表示第二集合ncounter中第in个元素的第pn[in]个集合的值;
(d2)令in的值加1,重复执行子步骤(c2),直到in的值大于D;(6d)令ifern的值加1,重复执行子步骤(6c),直到ifern>Q,遍历完集合fern-data中的所有元素,完成对后验概率模型posteriors的初始化。
4.根据权利要求1所述的一种基于TLD跟踪系统的视频目标跟踪方法,其特征在于,步骤9具体包括:
获取重合度检测器中集合grid记录的多个不同尺度的矩形框,确定所述多个不同尺度的矩形框中重合度大于预设重合度的矩形框,根据重合度大于预设重合度的矩形框的位置,确定每个重合度大于预设重合度的矩形框在需要进行目标跟踪的图像帧中框定的图像区域,将其作为需要进行目标跟踪的图像帧中所有可能的目标区域。
CN201710595737.6A 2017-07-20 2017-07-20 基于tld跟踪系统的视频目标跟踪方法 Active CN107423702B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710595737.6A CN107423702B (zh) 2017-07-20 2017-07-20 基于tld跟踪系统的视频目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710595737.6A CN107423702B (zh) 2017-07-20 2017-07-20 基于tld跟踪系统的视频目标跟踪方法

Publications (2)

Publication Number Publication Date
CN107423702A CN107423702A (zh) 2017-12-01
CN107423702B true CN107423702B (zh) 2020-06-23

Family

ID=60430540

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710595737.6A Active CN107423702B (zh) 2017-07-20 2017-07-20 基于tld跟踪系统的视频目标跟踪方法

Country Status (1)

Country Link
CN (1) CN107423702B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108320301B (zh) * 2018-01-26 2022-03-18 西安电子科技大学 一种基于跟踪学习检测的目标跟踪优化方法
CN108346159B (zh) * 2018-01-28 2021-10-15 北京工业大学 一种基于跟踪-学习-检测的视觉目标跟踪方法
CN108460786A (zh) * 2018-01-30 2018-08-28 中国航天电子技术研究院 一种无人机侦察目标的高速跟踪方法
CN108510521A (zh) * 2018-02-27 2018-09-07 南京邮电大学 一种多特征融合的尺度自适应目标跟踪方法
CN108509861B (zh) * 2018-03-09 2020-06-30 山东师范大学 一种基于样本学习和目标检测结合的目标跟踪方法和装置
CN108596188A (zh) * 2018-04-04 2018-09-28 西安电子科技大学 基于hog特征算子的视频目标检测方法
CN108564069B (zh) * 2018-05-04 2021-09-21 中国石油大学(华东) 一种工业佩戴安全帽视频检测方法
CN108898623A (zh) * 2018-05-24 2018-11-27 北京飞搜科技有限公司 目标跟踪方法及设备
CN109191489B (zh) * 2018-08-16 2022-05-20 株洲斯凯航空科技有限公司 一种飞行器着陆标志的检测跟踪方法与系统
CN109410243A (zh) * 2018-10-16 2019-03-01 中电科新型智慧城市研究院有限公司 基于区域交叠与模板匹配的多目标跟踪方法
CN109191488B (zh) * 2018-10-18 2021-11-05 东北大学 一种基于csk与tld融合算法的目标跟踪系统及方法
CN116740135A (zh) * 2023-05-18 2023-09-12 中国科学院空天信息创新研究院 红外弱小目标跟踪方法、装置、电子设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102881022A (zh) * 2012-07-20 2013-01-16 西安电子科技大学 基于在线学习的遮挡目标跟踪方法
CN103400391A (zh) * 2013-08-09 2013-11-20 北京博思廷科技有限公司 一种基于改进的随机森林的多目标跟踪方法及装置
CN104156734A (zh) * 2014-08-19 2014-11-19 中国地质大学(武汉) 一种基于随机蕨分类器的全自主在线学习方法
CN104680194A (zh) * 2015-03-15 2015-06-03 西安电子科技大学 基于随机蕨丛和随机投影的在线目标跟踪方法
CN105006003A (zh) * 2015-07-09 2015-10-28 北京航空航天大学 基于随机投影蕨的实时目标跟踪算法
CN105825525A (zh) * 2016-03-16 2016-08-03 中山大学 一种基于Mean-shift模型优化的TLD目标跟踪方法及其装置
CN106204649A (zh) * 2016-07-05 2016-12-07 西安电子科技大学 一种基于tld算法的目标跟踪方法
CN106204638A (zh) * 2016-06-29 2016-12-07 西安电子科技大学 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102881022A (zh) * 2012-07-20 2013-01-16 西安电子科技大学 基于在线学习的遮挡目标跟踪方法
CN103400391A (zh) * 2013-08-09 2013-11-20 北京博思廷科技有限公司 一种基于改进的随机森林的多目标跟踪方法及装置
CN104156734A (zh) * 2014-08-19 2014-11-19 中国地质大学(武汉) 一种基于随机蕨分类器的全自主在线学习方法
CN104680194A (zh) * 2015-03-15 2015-06-03 西安电子科技大学 基于随机蕨丛和随机投影的在线目标跟踪方法
CN105006003A (zh) * 2015-07-09 2015-10-28 北京航空航天大学 基于随机投影蕨的实时目标跟踪算法
CN105825525A (zh) * 2016-03-16 2016-08-03 中山大学 一种基于Mean-shift模型优化的TLD目标跟踪方法及其装置
CN106204638A (zh) * 2016-06-29 2016-12-07 西安电子科技大学 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法
CN106204649A (zh) * 2016-07-05 2016-12-07 西安电子科技大学 一种基于tld算法的目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"High-Speed Tracking with Kernelized Correlation Filters";Jo~ao F. Henriques et al;《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》;20150331;第37卷(第3期);第583-596页 *
"移动终端的视觉目标跟踪算法的研究与实现";周波;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170215;第I138-2979页 *

Also Published As

Publication number Publication date
CN107423702A (zh) 2017-12-01

Similar Documents

Publication Publication Date Title
CN107423702B (zh) 基于tld跟踪系统的视频目标跟踪方法
CN111062282B (zh) 基于改进yolov3模型的变电站指针式仪表识别方法
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN103729854B (zh) 一种基于张量模型的红外弱小目标检测方法
CN109544592B (zh) 针对相机移动的运动目标检测算法
CN109191488B (zh) 一种基于csk与tld融合算法的目标跟踪系统及方法
CN110363165B (zh) 基于tsk模糊系统的多目标跟踪方法、装置及存储介质
CN111080675A (zh) 一种基于时空约束相关滤波的目标跟踪方法
CN110349188B (zh) 基于tsk模糊模型的多目标跟踪方法、装置及存储介质
CN113361542A (zh) 一种基于深度学习的局部特征提取方法
CN104318559A (zh) 用于视频图像匹配的特征点快速检测方法
CN112036381B (zh) 视觉跟踪方法、视频监控方法及终端设备
CN105488541A (zh) 增强现实系统中基于机器学习的自然特征点识别方法
Yang et al. Visual tracking with long-short term based correlation filter
CN107368802B (zh) 基于kcf和人脑记忆机制的运动目标跟踪方法
Finnveden et al. Understanding when spatial transformer networks do not support invariance, and what to do about it
CN111008630A (zh) 一种基于弱监督学习的目标定位方法
CN112991394B (zh) 基于三次样条插值和马尔科夫链的kcf目标跟踪方法
CN110472607A (zh) 一种船舶跟踪方法及系统
CN110706253A (zh) 基于表观特征和深度特征的目标跟踪方法、系统、装置
CN117392545B (zh) 一种基于深度学习的sar图像目标检测方法
Kang et al. Sparse checkerboard corner detection from global perspective
CN112734695A (zh) 基于区域增强卷积神经网络的sar图像变化检测方法
CN111882594A (zh) 一种基于orb特征点的偏振图像快速配准方法及装置
CN103903258B (zh) 基于次序统计量谱聚类的遥感图像变化检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant