CN113379788A - 一种基于三元组网络的目标跟踪稳定性方法 - Google Patents

一种基于三元组网络的目标跟踪稳定性方法 Download PDF

Info

Publication number
CN113379788A
CN113379788A CN202110728935.1A CN202110728935A CN113379788A CN 113379788 A CN113379788 A CN 113379788A CN 202110728935 A CN202110728935 A CN 202110728935A CN 113379788 A CN113379788 A CN 113379788A
Authority
CN
China
Prior art keywords
target
tracking
img
network
triple
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110728935.1A
Other languages
English (en)
Other versions
CN113379788B (zh
Inventor
赵凡
张珍珍
惠凯迪
范彩霞
陈亚军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202110728935.1A priority Critical patent/CN113379788B/zh
Publication of CN113379788A publication Critical patent/CN113379788A/zh
Application granted granted Critical
Publication of CN113379788B publication Critical patent/CN113379788B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于三元组网络的目标跟踪稳定性方法,设计了一个三元组目标确认网络结构;定义了一个基于相似度度量的目标损失函数;在视频序列的前后两帧图像上框选目标区域,在目标扩大区域定义随机粒子模拟目标的空间位置,通过粒子和目标区域的交并比取值制作训练正负样本;用制作的三元组数据对三元组目标确认网络模型进行训练;采用KCF算法对目标进行跟踪;采用Faster R‑CNN检测器对目标进行检测;采用三元组目标确认网络模型对跟踪结果和检测结果进行目标确认。本发明在KCF算法跟踪的基础上结合检测结果来提升跟踪的稳定性,在OTB数据集上进行测试,实验结果证明本发明相对KCF算法具有更高的成功率和准确性。

Description

一种基于三元组网络的目标跟踪稳定性方法
技术领域
本发明属于可见光图像处理方法技术领域,具体涉及一种基于三元组网络的目标跟踪稳定性方法。
背景技术
目标跟踪已经在计算机视觉中得到了广泛的研究,这在机器人技术,智能监控和其他应用中具有重要意义。由于姿态,尺度,照度和运动,遮挡和复杂背景的变化,目标跟踪仍然存在许多挑战。
2015年,Henriques等提出了KCF(核相关滤波器)跟踪算法,在目标跟踪方面具有很好的效果,由于KCF算法缺乏有效的目标跟踪丢失判断机制,导致KCF算法跟踪不稳定,因此需要提出一种基于三元组网络的目标跟踪稳定性方法,克服了传统的KCF算法跟踪不稳定的问题。
发明内容
本发明的目的是提供一种基于三元组网络的目标跟踪稳定性方法,提升KCF算法的跟踪稳定性。
本发明采用的技术方案是,一种基于三元组网络的目标跟踪稳定性方法,具体按照以下步骤实施:
步骤1、设计三元组目标确认网络结构;
步骤2、定义三元组目标确认网络的目标损失函数;
步骤3、离线训练三元组目标确认网络,得到训练后的网络模型Mtri
步骤4、读取视频V,V={imgk},imgk为第k帧图像,1≤k≤K,K为视频V中的图像总帧数,采用基于三元组网络的目标跟踪稳定性方法对视频V进行目标跟踪,输出目标跟踪结果RS={R′k},R′k表示imgk的目标跟踪框。
本发明的特点还在于:
步骤1具体过程为:
步骤1中三元组目标确认网络结构由输入模块、特征提取模块和相似性度量模块串联组成;
对三元组数据(x,x+,x-)分别进行归一化处理,得到归一化后的三元组数据(x1,x1 +,x1 -),三元组数据(x1,x1 +,x1 -)大小都为w×h×c,把(x1,x1 +,x1 -)送入网络的输入模块,其中w×h为图像的大小,c为图像的通道数;
特征提取模块包括三个权值共享的卷积网络,每个卷积网络包括5组卷积层和1个最大池化层,具体连接顺序为:[Conv1]-[MaxPool]-[Conv2-1-Conv2-2-Conv2-3]-[Conv3-1-Conv3-2-Conv3-3-Conv3-4]-[Conv4-1-Conv4-2-Conv4-3-Conv4-4-Conv4-5-Conv4-6]-[Conv5-1-Conv5-2-Conv5-3],3个卷积网络在Conv5-3层的输出分别表示为y、y+和y-
相似性度量模块的输出维度为2,一维为x1和x1 +的相似度,另一维为x1和x1 -的相似度;
步骤2具体过程为:
定义三元组目标确认网络的目标损失函数,如下公式(1)所示:
L((x,x+,x-);γ;S)=max{0,γ-S(y,y+)+S(y,y-)} (1);
其中,S(y,y+)表示y和y+之间的余弦相似度,
Figure BDA0003138604720000031
S(y,y-)表示y和y-之间的余弦相似度,
Figure BDA0003138604720000032
γ为阈值参数,max()为求最大值函数。
步骤3具体过程为:
步骤3.1、制作训练样本集Mtrain和标签文件label;
步骤3.2、设置网络模型参数,将训练样本集Mtrain和标签文件label按批量送入三元组目标确认网络中进行训练,当目标函数L收敛或者达到设置的最大迭代次数时,结束网络训练,输出网络模型Mtri
步骤4具体过程为:
步骤4.1、输入视频V,V={imgk},其中imgk为第k帧图像,图像大小为width×height,其中width、height分别为imgk的宽度和高度,1≤k≤K,K为视频总帧数;
步骤4.2、在图像imgk中对目标进行手动框选,得到目标的矩形框R′k,在imgk中提取矩形框R′k对应的图像区域Objk,即为目标图像,Objk大小为Obj_wk×Obj_hk,其中Obj_wk、Obj_hk分别为Objk的宽和高;
步骤4.3、定义交并比阈值变量overlap,对R′k进行尺度扩展得到扩展后的矩形框Rk,在imgk中提取Rk对应区域的HOG特征Feak,在Feak中通过循环移位构建训练样本xk
步骤4.4、把Feak作为输入,执行KCF算法中的训练模块,得到岭回归系数αk
步骤4.5、k=k+1,读取imgk,执行KCF跟踪算法中的跟踪模块,得到跟踪候选目标Trak
步骤4.6、采用Faster R-CNN通用目标检测器对第k帧图像imgk进行目标检测,得到检测的候选目标集合Deck
Figure BDA0003138604720000041
Figure BDA0003138604720000042
表示imgk中检测的第n个目标,0≤n≤N,N为检测的目标总个数;
步骤4.7、计算Trak与Deck中各个元素在空间位置上的交并比,记为Iouk
Figure BDA0003138604720000043
求Iouk中的最大值
Figure BDA0003138604720000044
Figure BDA0003138604720000045
如果
Figure BDA0003138604720000046
则输出
Figure BDA0003138604720000047
对应的检测目标,即最佳检测目标
Figure BDA0003138604720000048
否则,将Trak作为跟踪结果Objk,并在视频图像imgk中输出Objk对应的矩形框R′k,转入步骤4.9;
步骤4.8、将Trak
Figure BDA0003138604720000049
和Objk-1作为输入,送入三元组目标确认网络模型Mtri输出得到确认后的目标Objk,并在视频图像imgk中输出Objk对应的矩形框R′k
步骤4.9、如果k≥K,跟踪结束,否则转入步骤4.3。
本发明的有益效果如下:
针对KCF算法缺乏有效的目标跟踪丢失判断机制导致的目标跟踪不稳定问题,本发明提出了一种目标跟踪稳定性方法,基于三元组网络,利用目标模板和跟踪结果、检测结果之间的相似性度对跟踪目标进行确认,结合检测结果提升跟踪器的稳定性。
附图说明
图1是本发明一种基于三元组网络的目标跟踪稳定性方法实现过程流程图;
图2是本发明一种基于三元组网络的目标跟踪稳定性方法中三元组目标确认网络结构图;
图3是本发明一种基于三元组网络的目标跟踪稳定性方法流程图;
图4(a)~(c)是OTB数据集Human7视频序列上KCF算法与本发明一种基于三元组网络的目标跟踪稳定性方法跟踪结果对比图。
图5(a)~(c)是OTB数据集David3视频序列上KCF算法与本发明一种基于三元组网络的目标跟踪稳定性方法跟踪结果对比图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于三元组网络的目标跟踪稳定性方法,本发明的实现过程如图1所示,具体按照以下步骤实施:
步骤1,设计三元组目标确认网络结构;
三元组目标确认网络结构由输入模块、特征提取模块和相似性度量模块串联组成,网络结构如图2所示;
对三元组数据(x,x+,x-)分别进行归一化处理,得到归一化后的三元组数据(x1,x1 +,x1 -),其大小都为w×h×c,把(x1,x1 +,x1 -)送入网络的输入模块,其中w×h为图像的大小,c为通道值,在本发明实施例中w=h=512,c=3;
特征提取模块由三个权值共享的卷积网络组成,每个卷积网络由5组卷积层和1个最大池化层组成,具体连接顺序为:[Conv1]-[MaxPool]-[Conv2-1-Conv2-2-Conv2-3]-[Conv3-1-Conv3-2-Conv3-3-Conv3-4]-[Conv4-1-Conv4-2-Conv4-3-Conv4-4-Conv4-5-Conv4-6]-[Conv5-1-Conv5-2-Conv5-3],特征提取模块的输出为3个卷积网络在Conv5-3层的输出(y,y+,y-),特征提取模块中具体的层、卷积层参数设置和输出维度大小如表1所示:
表1
Figure BDA0003138604720000061
相似性度量模块的输出维度为2×1,表示x1和x1 +,x1 -的相似度;
步骤2,定义三元组目标确认网络的目标损失函数:L((x,x+,x-);γ;S)=max{0,γ-S(y,y+)+S(y,y-)},其中S(y,y+),
Figure BDA0003138604720000071
表示y和y+之间的余弦相似度,S(y,y-),
Figure BDA0003138604720000072
表示y和y-之间的余弦相似度,γ为阈值参数,max()为求最大值函数;
步骤3,训练三元组目标确认网络模型Mtri
步骤3.1、制作训练样本集Mtrain和标签文件label;
步骤3.1.1、在公开的目标跟踪OTB数据集上任意选取Nu个视频序列,作为训练视频数据集VNu={Vnum},1≤num≤Nu,其中Vnum表示第num个训练视频,训练视频个数计数器变量num初始化为1;
步骤3.1.2、在第num个训练视频Vnum上进行样本制作,其中Vnum={imgk},imgk为Vnum中的第k帧图像,1≤k≤K,K为视频Vnum中图像的总帧数;
步骤3.1.3、图像帧数变量计数器变量k初始化为1;
步骤3.1.4、定义一个三元组{x,x+,x-}数据,其中x,x+,x-分别表示锚点样本、正样本和负样本;
步骤3.1.5、在视频序列Vnum中读取图像imgk,在imgk图像中手动选取目标tark作为三元组{x,x+,x-}数据中的锚点样本x,x在imgk图像中的位置信息为
Figure BDA0003138604720000073
其中
Figure BDA0003138604720000074
表示tark的左上角点在imgk中的列和行坐标,
Figure BDA0003138604720000075
分别表示tark在imgk中的宽和高;
步骤3.1.6、在视频序列Vnum中读取图像imgk+1,在imgk+1图像中手动选取tark对应目标tark+1的矩形框
Figure BDA0003138604720000076
Figure BDA0003138604720000077
的r倍扩大矩形框
Figure BDA0003138604720000078
其中
Figure BDA0003138604720000079
Figure BDA0003138604720000081
在imgk+1图像中提取
Figure BDA0003138604720000082
对应的图像区域
Figure BDA0003138604720000083
作为目标的感兴趣区域;
Figure BDA0003138604720000084
范围内随机定义N个粒子Pn,1≤n≤N,每个粒子为一个矩形框,即Pn=(xn,yn,wn,hn),求Pn
Figure BDA0003138604720000085
之间的交并比Iou,如果Iou大于等于设定的交并比阈值overlap,则认为矩形框Pn在图像
Figure BDA0003138604720000086
上对应的图像区域
Figure BDA0003138604720000087
为三元组{x,x+,x-}数据中的正样本x+,其标签为1,否则
Figure BDA0003138604720000088
为三元组{x,x+,x-}数据中的负样本x-,其标签为0;Iou的计算公式如下:
Figure BDA0003138604720000089
上式中,∩和∪分别表示交集和并集,以此循环完成一个视频序列的三元组制作,本发明中overlap的取值为0.5;
步骤3.1.7、所有
Figure BDA00031386047200000810
构成训练样本集Mtrain,所有
Figure BDA00031386047200000811
对应的标签构成标签文件label;
步骤3.1.8、k=k+2,如果k<K,转入步骤3.1.5;否则转入步骤3.1.9;
步骤3.1.9、num=num+1,如果num<Nu,转入步骤3.1.2;否则转入步骤3.2;
步骤3.2、设置网络模型参数,将训练样本集Mtrain按批量以及标签文件label中对应的标签值送入三元组目标确认网络中进行训练,当目标函数L收敛或者达到设置的最大迭代次数时,结束网络训练,输出网络模型Mtri
步骤3.2.1、输入训练样本集Mtrain以及标签文件label;
步骤3.2.2、设置三元组目标确认网络模型训练参数,设置学习率变量Learning_rate、每批次数据大小变量Batch_size、训练迭代最大次数变量Max_iter,定义训练迭代次数变量为Step,Step初始化为1,具体设置如表2所示;
表2
参数 参数说明 取值
Learning_rate 学习率 0.001
Max_iter 训练最大迭代次数 200
Batch_size 每批次数据的大小 6
Step 训练迭代次数变量初始值 1
步骤3.2.3、在训练样本集Mtrain随机选取Batch_size个训练样本,把Batch_size个训练样本和对应的标签,送入三元组目标确认网络中,进行网络训练;
步骤3.2.4、如果目标函数L未收敛或者Step<Max_iter,则Step=Step+1,使用梯度下降法来反向修正训练模型中各网络层的权重系数,返回步骤3.2.3;否则,网络训练结束,保存三元组目标确认网络训练模型Mtri
步骤4、采用基于三元组网络的目标跟踪稳定性方法完成目标跟踪的具体流程如图3所示;
步骤4.1、输入测试视频V,V={imgk},其中imgk为第k帧图像,图像大小为width×height,其中width、height分别为imgk的宽度和高度,1≤k≤K,K为视频总帧数;
步骤4.2、在图像imgk中手动选取目标矩形框R′k,在imgk中提取矩形框R′k对应的图像区域Objk,Objk的大小为Obj_wk×Obj_hk,其中Obj_wk、Obj_hk分别为Objk的宽和高;
步骤4.3、对R′k进行尺度扩展得到扩展后的矩形框Rk,在imgk中提取Rk对应区域的HOG特征Feak,在Feak中通过循环移位构建训练样本xk
步骤4.3.1、以R′k的中心点为中心,以p×(R′k.width,R′k.height)为宽和高向外扩展R′k,得到扩展后的矩形框Rk,p为尺寸扩展倍数。以imgk和Rk为输入,调用开源OpenCV库函数cvSetImageROI(),在imgk中提取Rk对应的图像区域
Figure BDA0003138604720000101
本发明中p的取值为2.5。
步骤4.3.2、将
Figure BDA0003138604720000102
划分为M×N个互不重叠的图像块{Bm×n|1≤m≤M,1≤n≤N},其中Bm×n表示第m×n个图像块,以Bm×n为输入,调用KCF算法中getfeature()函数,得到Bm×n的r维HOG特征
Figure BDA0003138604720000103
所有图像块的HOG特征组成
Figure BDA0003138604720000104
的特征Feak
Figure BDA0003138604720000105
步骤4.4、把训练样本xk作为输入,执行KCF算法中的训练模块,得到岭回归系数αk
步骤4.4.1、按公式(2)计算块Bm×n与中心块BM2×N2的汉明距离hann(m,n),所有块与中心块的汉明距离组成汉明距离矩阵Mathann,用Mathann初始化高斯回归矩阵yk
hann(m,n)=0.25×[1-cos((2×π×m)/(whann-1))]×[1-cos((2×π×n)/(hhann-1))] (2);
其中(whann,hhann)表示汉明窗的宽和高,本发明中whann=M,hhann=N;
步骤4.4.2、将训练样本集xk、高斯回归矩阵yk、学习率δ以及正则化系数λ作为输入,调用KCF算法中train()函数,得到当前帧中岭回归系数αk,本发明中学习率δ=0.012,正则化系数λ=0.001;
步骤4.4.2.1、将训练样本集xk作为输入,计算xk与xk之间的自相关矩阵;
Figure BDA0003138604720000111
其中,σ表示高斯滤波器宽度,DFT-1表示离散傅里叶变换(DFT)的反变换,
Figure BDA0003138604720000112
表示xk的傅里叶变换,
Figure BDA0003138604720000113
Figure BDA0003138604720000114
的复共轭,本发明中σ的取值为0.2。
步骤4.4.2.2、计算岭回归系数
Figure BDA0003138604720000115
完成训练;
Figure BDA0003138604720000116
步骤4.4.3、如果k≥2,按公式(5)更新岭回归系数
Figure BDA0003138604720000117
否则执行步骤4.9。
Figure BDA0003138604720000118
步骤4.5、k=k+1,读取imgk,调用KCF跟踪算法中的跟踪模块,得到跟踪候选目标Trak
步骤4.5.1、按照步骤4.3,对R′k-1进行尺度扩展得到扩展后的矩形框Rarea,在imgk中提取Rarea对应区域的HOG特征Feak
Figure BDA0003138604720000119
Rarea和Feak分别为目标候选区域的矩形框和特征zk
步骤4.5.2、将xk-1、zk、αk-1和δ作为输入,调用KCF算法中detect()函数,得到目标响应图resk,在resk中求最大值resmax,其对应的位置就是目标的中心点位置ck,以ck为中心以(R′k-1.width,R′k-1.height)为宽、高的矩形框Rk就是目标框,在imgk中提取Rk对应的图像区域即为跟踪的目标Trak
步骤4.5.2.1、将xk-1、zk和δ作为输入,代入公式(3)计算xk-1与zk之间的互相关矩阵
Figure BDA0003138604720000121
Figure BDA0003138604720000122
步骤4.5.2.2、将αk-1
Figure BDA0003138604720000123
作为输入,代入公式(6)计算目标响应图resk
Figure BDA0003138604720000124
步骤4.5.2.3、求resk中的最大值resmax,resmax=max(resk),resmax对应的位置就是目标的中心点位置ck,以ck为中心以(R′k-1.width,R′k-1.height)为宽、高的矩形框Rk就是目标框,在imgk中提取Rk对应的图像区域即为跟踪的目标Trak
步骤4.6、采用FasterR-CNN通用目标检测器对第k帧图像imgk进行目标检测,得到检测的候选目标集合Deck
Figure BDA0003138604720000125
Figure BDA0003138604720000126
是第n个检测目标,0≤n≤N,N为检测的目标总个数;
步骤4.6.1、本发明采用2017年S.Ren等人在期刊IEEE Transactions on PatternAnalysis and Machine Intelligence上发表的《Faster R-CNN:Towards Real-TimeObject Detection with Region Proposal Networks》文章中的Faster R-CNN网络结构,选用在VOC-2007数据集上训练得到的Faster R-CNN目标检测器作为本发明的目标检测器;
步骤4.6.2、将imgk作为输入,送入Faster R-CNN目标检测器进行目标检测,得到检测的候选目标集合Deck
Figure BDA0003138604720000131
Figure BDA0003138604720000132
是第n个检测目标,0≤n≤N;N为检测的目标总个数。
步骤4.7、计算Trak与Deck中各个元素在空间位置上的交并比,记为Iouk
Figure BDA0003138604720000133
求Iouk中的最大值
Figure BDA0003138604720000134
Figure BDA0003138604720000135
如果
Figure BDA0003138604720000136
则输出
Figure BDA0003138604720000137
对应的检测目标,即最佳检测目标
Figure BDA0003138604720000138
否则,将Trak作为跟踪结果Objk,并在视频图像imgk中输出Objk对应的矩形框R′k,转入步骤4.9;
步骤4.7.1、计算Objk与Deck中各个元素在空间位置的交并比Iouk
Figure BDA0003138604720000139
Figure BDA00031386047200001310
是第n个检测目标与Objk的空间位置交并比,0≤n≤N。N为检测的目标总个数;
Figure BDA00031386047200001311
上式中,∩和∪分别表示交集和并集,
Figure BDA00031386047200001312
Figure BDA00031386047200001313
表示当前帧目标结果Objk对应的矩形框和第n个检测目标对应的矩形框;
步骤4.7.2、求Iouk中的最大值
Figure BDA00031386047200001314
Figure BDA00031386047200001315
如果
Figure BDA00031386047200001316
Figure BDA00031386047200001317
对应的检测目标
Figure BDA00031386047200001318
为最佳检测目标;反之,将Trak作为最终跟踪结果Objk,在视频图像imgk中输出Objk对应的矩形框R′k,转入步骤4.9。
步骤4.8、将Trak
Figure BDA00031386047200001319
和Objk-1作为输入,送入三元组目标确认网络模型Mtri输出得到确认后的目标Objk,并在视频图像imgk中输出Objk对应的矩形框R′k
步骤4.9、如果k≥K,跟踪结束,否则转入步骤4.3。
本发明针对KCF缺乏有效的目标跟踪丢失判断机制从而导致的跟踪不稳定性问题,首先设计了一个三元组目标确认网络结构,定义了一个基于相似度度量的目标损失函数;其次在视频序列的前后两帧图像上手动框选目标区域,在目标扩大区域定义随机粒子模拟目标的空间位置,通过粒子和目标区域的交并比取值制作训练正样本和负样本;用制作的三元组样本集对三元组目标确认网络模型进行训练;采用KCF算法对目标进行跟踪,采用Faster R-CNN检测器对目标进行检测,采用三元组目标确认网络模型对跟踪结果和检测结果进行目标确认。本发明在KCF算法跟踪的基础上结合检测结果来提升跟踪的稳定性,在OTB数据集上进行了实验测试,实验结果证明了本发明相对KCF算法具有更高的成功率和准确性。
本发明在OTB数据集上进行测试,OTB数据集包含11种具有不同挑战因子的视频序列,这些挑战因素有:平面内旋转、平面外旋转、尺度变换、遮挡、形变、运动模糊、快速移动、超出视野、背景杂波、光照变化、低分辨率。
本发明采用的评价指标为准确率、成功率。
1)准确率;
准确率表示被跟踪目标的中心位置与人工标记的目标真值之间的中心位置误差小于所设定阈值的帧数占总帧数的比值,阈值数设为20个像素点,准确率值越大表示跟踪性能越好。中心位置误差(center location error,CLE)计算公式如下:
Figure BDA0003138604720000151
2)成功率;
成功率表示在总帧数中预测目标框与实际目标框的交并比大于某一阈值的帧数占比,该阈值在0到1之间变化,一般大于0.5表示跟踪成功。
在两个数据集上本发明选取了部分序列进行了测试,图4为OTB数据集视频序列Human7上KCF算法与本发明方法跟踪对比结果,其中图4(a)从左往右依次为Human7视频序列第22帧、第61帧和第121帧图像的原图,图4(b)从左往右依次为KCF算法对Human7视频序列第22帧、第61帧和第121帧图像的跟踪结果,图4(c)从左往右依次为本发明方法对Human7视频序列第22帧、第61帧和第121帧图像的跟踪结果,图5(a)从左往右依次为David3视频序列第21帧、第60帧和第172帧图像的原图,图5(b)从左往右依次为KCF算法对David3视频序列第21帧、第60帧和第172帧图像的跟踪结果,图5(c)从左往右依次为本发明方法对David3视频序列第21帧、第60帧和第172帧图像的跟踪结果,从图中可以看到KCF方法的跟踪框和目标位置有一定的误差,而本发明方法的跟踪框一直锁定在目标上,从而证明本发明方法相对KCF方法有一定的性能提升。
表3为KCF算法与本发明方法在OTB数据集上的平均成功率和平均准确率的客观评价结果。由表3可见,相对KCF算法,本发明方法在OTB数据集上的平均成功率和平均准确率分别提高了40.6%、21.3%,本发明方法具有更好的跟踪稳定性。
表3
Figure BDA0003138604720000161

Claims (5)

1.一种基于三元组网络的目标跟踪稳定性方法,其特征在于,具体按照以下步骤实施:
步骤1、设计三元组目标确认网络结构;
步骤2、定义三元组目标确认网络的目标损失函数;
步骤3、离线训练三元组目标确认网络,得到训练后的网络模型Mtri
步骤4、读取视频V,V={imgk},imgk为第k帧图像,1≤k≤K,K为视频V中的图像总帧数,采用基于三元组网络的目标跟踪稳定性方法对视频V进行目标跟踪,输出目标跟踪结果RS={R′k},R′k表示imgk的目标跟踪框。
2.根据权利要求1所述一种基于三元组网络的目标跟踪稳定性方法,其特征在于,所述步骤1具体过程为:
步骤1中三元组目标确认网络结构由输入模块、特征提取模块和相似性度量模块串联组成;
对三元组数据(x,x+,x-)分别进行归一化处理,得到归一化后的三元组数据(x1,x1 +,x1 -),三元组数据(x1,x1 +,x1 -)大小都为w×h×c,把(x1,x1 +,x1 -)送入网络的输入模块,其中w×h为图像的大小,c为图像的通道数;
特征提取模块包括三个权值共享的卷积网络,每个卷积网络包括5组卷积层和1个最大池化层,具体连接顺序为:[Conv1]—[MaxPool]—[Conv2-1-Conv2-2-Conv2-3]—[Conv3-1-Conv3-2-Conv3-3-Conv3-4]—[Conv4-1-Conv4-2-Conv4-3-Conv4-4-Conv4-5-Conv4-6]—[Conv5-1-Conv5-2-Conv5-3],3个卷积网络在Conv5-3层的输出分别表示为y、y+和y-
相似性度量模块的输出维度为2,一维为x1和x1 +的相似度,另一维为x1和x1 -的相似度。
3.根据权利要求1所述一种基于三元组网络的目标跟踪稳定性方法,其特征在于,所述步骤2具体过程为:
定义三元组目标确认网络的目标损失函数,如下公式(1)所示:
L((x,x+,x-);γ;S)=max{0,γ-S(y,y+)+S(y,y-)} (1);
其中,S(y,y+)表示y和y+之间的余弦相似度,
Figure FDA0003138604710000021
S(y,y-)表示y和y-之间的余弦相似度,
Figure FDA0003138604710000022
γ为阈值参数,max()为求最大值函数。
4.根据权利要求1所述一种基于三元组网络的目标跟踪稳定性方法,其特征在于,所述步骤3具体过程为:
步骤3.1、制作训练样本集Mtrain和标签文件label;
步骤3.2、设置网络模型参数,将训练样本集Mtrain和标签文件label按批量送入三元组目标确认网络中进行训练,当目标函数L收敛或者达到设置的最大迭代次数时,结束网络训练,输出网络模型Mtri
5.根据权利要求1所述一种基于三元组网络的目标跟踪稳定性方法,其特征在于,所述步骤4具体过程为:
步骤4.1、输入视频V,V={imgk},其中imgk为第k帧图像,图像大小为width×height,其中width、height分别为imgk的宽度和高度,1≤k≤K,K为视频总帧数;
步骤4.2、在图像imgk中对目标进行手动框选,得到目标的矩形框R′k,在imgk中提取矩形框R′k对应的图像区域Objk,即为目标图像,Objk大小为Obj_wk×Obj_hk,其中Obj_wk、Obj_hk分别为Objk的宽和高;
步骤4.3、定义交并比阈值变量overlap,对R′k进行尺度扩展得到扩展后的矩形框Rk,在imgk中提取Rk对应区域的HOG特征Feak,在Feak中通过循环移位构建训练样本xk
步骤4.4、把Feak作为输入,执行KCF算法中的训练模块,得到岭回归系数αk
步骤4.5、k=k+1,读取imgk,执行KCF跟踪算法中的跟踪模块,得到跟踪候选目标Trak
步骤4.6、采用FasterR-CNN通用目标检测器对第k帧图像imgk进行目标检测,得到检测的候选目标集合Deck
Figure FDA0003138604710000031
Figure FDA0003138604710000032
表示imgk中检测的第n个目标,0≤n≤N,N为检测的目标总个数;
步骤4.7、计算Trak与Deck中各个元素在空间位置上的交并比,记为Iouk
Figure FDA0003138604710000033
求Iouk中的最大值
Figure FDA0003138604710000034
Figure FDA0003138604710000035
如果
Figure FDA0003138604710000036
则输出
Figure FDA0003138604710000037
对应的检测目标,即最佳检测目标
Figure FDA0003138604710000038
否则,将Trak作为跟踪结果Objk,并在视频图像imgk中输出Objk对应的矩形框R′k,转入步骤4.9;
步骤4.8、将Trak
Figure FDA0003138604710000039
和Objk-1作为输入,送入三元组目标确认网络模型Mtri,输出得到确认后的目标Objk,并在视频图像imgk中输出Objk对应的矩形框R′k
步骤4.9、如果k≥K,跟踪结束,否则转入步骤4.3。
CN202110728935.1A 2021-06-29 2021-06-29 一种基于三元组网络的目标跟踪稳定性方法 Active CN113379788B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110728935.1A CN113379788B (zh) 2021-06-29 2021-06-29 一种基于三元组网络的目标跟踪稳定性方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110728935.1A CN113379788B (zh) 2021-06-29 2021-06-29 一种基于三元组网络的目标跟踪稳定性方法

Publications (2)

Publication Number Publication Date
CN113379788A true CN113379788A (zh) 2021-09-10
CN113379788B CN113379788B (zh) 2024-03-29

Family

ID=77579919

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110728935.1A Active CN113379788B (zh) 2021-06-29 2021-06-29 一种基于三元组网络的目标跟踪稳定性方法

Country Status (1)

Country Link
CN (1) CN113379788B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114862914A (zh) * 2022-05-26 2022-08-05 淮阴工学院 一种基于检测跟踪一体式的行人跟踪方法
CN115576267A (zh) * 2022-11-07 2023-01-06 河北工业大学 一种基于数字孪生的轮毂机加工尺寸误差修正方法
CN116665133A (zh) * 2023-07-24 2023-08-29 山东科技大学 基于三元组网络的安全帽检测跟踪方法、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109191491A (zh) * 2018-08-03 2019-01-11 华中科技大学 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统
CN109410242A (zh) * 2018-09-05 2019-03-01 华南理工大学 基于双流卷积神经网络的目标跟踪方法、系统、设备及介质
CN109483507A (zh) * 2018-12-04 2019-03-19 北京壹氢科技有限公司 一种多个轮式机器人行走的室内视觉定位方法
CN111862156A (zh) * 2020-07-17 2020-10-30 中南民族大学 一种基于图匹配的多目标跟踪方法和系统
CN112116626A (zh) * 2020-08-04 2020-12-22 北京交通大学 一种基于柔性卷积的单目标跟踪方法
CN112560656A (zh) * 2020-12-11 2021-03-26 成都东方天呈智能科技有限公司 一种联合注意力机制端到端训练的行人多目标跟踪方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109191491A (zh) * 2018-08-03 2019-01-11 华中科技大学 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统
CN109410242A (zh) * 2018-09-05 2019-03-01 华南理工大学 基于双流卷积神经网络的目标跟踪方法、系统、设备及介质
CN109483507A (zh) * 2018-12-04 2019-03-19 北京壹氢科技有限公司 一种多个轮式机器人行走的室内视觉定位方法
CN111862156A (zh) * 2020-07-17 2020-10-30 中南民族大学 一种基于图匹配的多目标跟踪方法和系统
CN112116626A (zh) * 2020-08-04 2020-12-22 北京交通大学 一种基于柔性卷积的单目标跟踪方法
CN112560656A (zh) * 2020-12-11 2021-03-26 成都东方天呈智能科技有限公司 一种联合注意力机制端到端训练的行人多目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
龚畅;王华君;李荣;徐平平;: "基于状态依赖检测的视频运动目标轨迹跟踪算法", 现代电子技术, no. 07, 1 April 2016 (2016-04-01) *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114862914A (zh) * 2022-05-26 2022-08-05 淮阴工学院 一种基于检测跟踪一体式的行人跟踪方法
CN115576267A (zh) * 2022-11-07 2023-01-06 河北工业大学 一种基于数字孪生的轮毂机加工尺寸误差修正方法
CN116665133A (zh) * 2023-07-24 2023-08-29 山东科技大学 基于三元组网络的安全帽检测跟踪方法、设备及存储介质
CN116665133B (zh) * 2023-07-24 2023-10-13 山东科技大学 基于三元组网络的安全帽检测跟踪方法、设备及存储介质

Also Published As

Publication number Publication date
CN113379788B (zh) 2024-03-29

Similar Documents

Publication Publication Date Title
CN108734151B (zh) 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法
CN113379788B (zh) 一种基于三元组网络的目标跟踪稳定性方法
CN107424177B (zh) 基于连续相关滤波器的定位修正长程跟踪方法
CN105678284B (zh) 一种固定位人体行为分析方法
CN109118473B (zh) 基于神经网络的角点检测方法、存储介质与图像处理系统
CN112418212B (zh) 一种基于EIoU改进的YOLOv3算法
CN109934810B (zh) 一种基于改进粒子群小波神经网络的缺陷分类方法
CN110208660B (zh) 一种用于电力设备局部放电缺陷诊断的训练方法及装置
CN113361542B (zh) 一种基于深度学习的局部特征提取方法
CN104299247A (zh) 一种基于自适应测量矩阵的视频目标跟踪方法
CN111340842A (zh) 一种基于联合模型的相关滤波目标跟踪算法
CN106485269A (zh) 基于混合统计分布与多部件模型的sar图像目标检测方法
CN112561881A (zh) 基于评价模型的红外图像自适应数据增强方法
CN102663351A (zh) 基于条件外观模型的人脸特征点自动标定方法
CN112364974B (zh) 一种基于激活函数改进的YOLOv3算法
CN111429481B (zh) 一种基于自适应表达的目标追踪方法、装置及终端
CN106295674B (zh) 一种基于多粒子群算法的图像目标匹配检测方法及系统
CN111383281A (zh) 一种基于rbf神经网络的摄像机标定方法
CN113298850A (zh) 一种基于注意力机制与特征融合的目标跟踪方法及系统
CN112489088A (zh) 一种基于记忆单元的孪生网络视觉跟踪方法
CN111462180A (zh) 基于与或图aog的目标跟踪方法
CN107358625B (zh) 基于SPP Net和感兴趣区域检测的SAR图像变化检测方法
CN108986139A (zh) 一种用于目标跟踪的带有重要性图的特征整合方法
CN113111850A (zh) 基于感兴趣区域变换的人体关键点检测方法、装置与系统
CN117152062A (zh) 一种基于可变形卷积自适应框表面缺陷检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant