CN113379788A - 一种基于三元组网络的目标跟踪稳定性方法 - Google Patents
一种基于三元组网络的目标跟踪稳定性方法 Download PDFInfo
- Publication number
- CN113379788A CN113379788A CN202110728935.1A CN202110728935A CN113379788A CN 113379788 A CN113379788 A CN 113379788A CN 202110728935 A CN202110728935 A CN 202110728935A CN 113379788 A CN113379788 A CN 113379788A
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- img
- network
- triple
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000012549 training Methods 0.000 claims abstract description 49
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 27
- 238000012790 confirmation Methods 0.000 claims abstract description 24
- 238000001514 detection method Methods 0.000 claims abstract description 17
- 238000005259 measurement Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 9
- 238000010200 validation analysis Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 3
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 239000002245 particle Substances 0.000 abstract description 6
- 238000012360 testing method Methods 0.000 abstract description 5
- 238000004088 simulation Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于三元组网络的目标跟踪稳定性方法,设计了一个三元组目标确认网络结构;定义了一个基于相似度度量的目标损失函数;在视频序列的前后两帧图像上框选目标区域,在目标扩大区域定义随机粒子模拟目标的空间位置,通过粒子和目标区域的交并比取值制作训练正负样本;用制作的三元组数据对三元组目标确认网络模型进行训练;采用KCF算法对目标进行跟踪;采用Faster R‑CNN检测器对目标进行检测;采用三元组目标确认网络模型对跟踪结果和检测结果进行目标确认。本发明在KCF算法跟踪的基础上结合检测结果来提升跟踪的稳定性,在OTB数据集上进行测试,实验结果证明本发明相对KCF算法具有更高的成功率和准确性。
Description
技术领域
本发明属于可见光图像处理方法技术领域,具体涉及一种基于三元组网络的目标跟踪稳定性方法。
背景技术
目标跟踪已经在计算机视觉中得到了广泛的研究,这在机器人技术,智能监控和其他应用中具有重要意义。由于姿态,尺度,照度和运动,遮挡和复杂背景的变化,目标跟踪仍然存在许多挑战。
2015年,Henriques等提出了KCF(核相关滤波器)跟踪算法,在目标跟踪方面具有很好的效果,由于KCF算法缺乏有效的目标跟踪丢失判断机制,导致KCF算法跟踪不稳定,因此需要提出一种基于三元组网络的目标跟踪稳定性方法,克服了传统的KCF算法跟踪不稳定的问题。
发明内容
本发明的目的是提供一种基于三元组网络的目标跟踪稳定性方法,提升KCF算法的跟踪稳定性。
本发明采用的技术方案是,一种基于三元组网络的目标跟踪稳定性方法,具体按照以下步骤实施:
步骤1、设计三元组目标确认网络结构;
步骤2、定义三元组目标确认网络的目标损失函数;
步骤3、离线训练三元组目标确认网络,得到训练后的网络模型Mtri;
步骤4、读取视频V,V={imgk},imgk为第k帧图像,1≤k≤K,K为视频V中的图像总帧数,采用基于三元组网络的目标跟踪稳定性方法对视频V进行目标跟踪,输出目标跟踪结果RS={R′k},R′k表示imgk的目标跟踪框。
本发明的特点还在于:
步骤1具体过程为:
步骤1中三元组目标确认网络结构由输入模块、特征提取模块和相似性度量模块串联组成;
对三元组数据(x,x+,x-)分别进行归一化处理,得到归一化后的三元组数据(x1,x1 +,x1 -),三元组数据(x1,x1 +,x1 -)大小都为w×h×c,把(x1,x1 +,x1 -)送入网络的输入模块,其中w×h为图像的大小,c为图像的通道数;
特征提取模块包括三个权值共享的卷积网络,每个卷积网络包括5组卷积层和1个最大池化层,具体连接顺序为:[Conv1]-[MaxPool]-[Conv2-1-Conv2-2-Conv2-3]-[Conv3-1-Conv3-2-Conv3-3-Conv3-4]-[Conv4-1-Conv4-2-Conv4-3-Conv4-4-Conv4-5-Conv4-6]-[Conv5-1-Conv5-2-Conv5-3],3个卷积网络在Conv5-3层的输出分别表示为y、y+和y-;
相似性度量模块的输出维度为2,一维为x1和x1 +的相似度,另一维为x1和x1 -的相似度;
步骤2具体过程为:
定义三元组目标确认网络的目标损失函数,如下公式(1)所示:
L((x,x+,x-);γ;S)=max{0,γ-S(y,y+)+S(y,y-)} (1);
步骤3具体过程为:
步骤3.1、制作训练样本集Mtrain和标签文件label;
步骤3.2、设置网络模型参数,将训练样本集Mtrain和标签文件label按批量送入三元组目标确认网络中进行训练,当目标函数L收敛或者达到设置的最大迭代次数时,结束网络训练,输出网络模型Mtri。
步骤4具体过程为:
步骤4.1、输入视频V,V={imgk},其中imgk为第k帧图像,图像大小为width×height,其中width、height分别为imgk的宽度和高度,1≤k≤K,K为视频总帧数;
步骤4.2、在图像imgk中对目标进行手动框选,得到目标的矩形框R′k,在imgk中提取矩形框R′k对应的图像区域Objk,即为目标图像,Objk大小为Obj_wk×Obj_hk,其中Obj_wk、Obj_hk分别为Objk的宽和高;
步骤4.3、定义交并比阈值变量overlap,对R′k进行尺度扩展得到扩展后的矩形框Rk,在imgk中提取Rk对应区域的HOG特征Feak,在Feak中通过循环移位构建训练样本xk;
步骤4.4、把Feak作为输入,执行KCF算法中的训练模块,得到岭回归系数αk;
步骤4.5、k=k+1,读取imgk,执行KCF跟踪算法中的跟踪模块,得到跟踪候选目标Trak;
步骤4.7、计算Trak与Deck中各个元素在空间位置上的交并比,记为Iouk,求Iouk中的最大值 如果则输出对应的检测目标,即最佳检测目标否则,将Trak作为跟踪结果Objk,并在视频图像imgk中输出Objk对应的矩形框R′k,转入步骤4.9;
步骤4.9、如果k≥K,跟踪结束,否则转入步骤4.3。
本发明的有益效果如下:
针对KCF算法缺乏有效的目标跟踪丢失判断机制导致的目标跟踪不稳定问题,本发明提出了一种目标跟踪稳定性方法,基于三元组网络,利用目标模板和跟踪结果、检测结果之间的相似性度对跟踪目标进行确认,结合检测结果提升跟踪器的稳定性。
附图说明
图1是本发明一种基于三元组网络的目标跟踪稳定性方法实现过程流程图;
图2是本发明一种基于三元组网络的目标跟踪稳定性方法中三元组目标确认网络结构图;
图3是本发明一种基于三元组网络的目标跟踪稳定性方法流程图;
图4(a)~(c)是OTB数据集Human7视频序列上KCF算法与本发明一种基于三元组网络的目标跟踪稳定性方法跟踪结果对比图。
图5(a)~(c)是OTB数据集David3视频序列上KCF算法与本发明一种基于三元组网络的目标跟踪稳定性方法跟踪结果对比图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于三元组网络的目标跟踪稳定性方法,本发明的实现过程如图1所示,具体按照以下步骤实施:
步骤1,设计三元组目标确认网络结构;
三元组目标确认网络结构由输入模块、特征提取模块和相似性度量模块串联组成,网络结构如图2所示;
对三元组数据(x,x+,x-)分别进行归一化处理,得到归一化后的三元组数据(x1,x1 +,x1 -),其大小都为w×h×c,把(x1,x1 +,x1 -)送入网络的输入模块,其中w×h为图像的大小,c为通道值,在本发明实施例中w=h=512,c=3;
特征提取模块由三个权值共享的卷积网络组成,每个卷积网络由5组卷积层和1个最大池化层组成,具体连接顺序为:[Conv1]-[MaxPool]-[Conv2-1-Conv2-2-Conv2-3]-[Conv3-1-Conv3-2-Conv3-3-Conv3-4]-[Conv4-1-Conv4-2-Conv4-3-Conv4-4-Conv4-5-Conv4-6]-[Conv5-1-Conv5-2-Conv5-3],特征提取模块的输出为3个卷积网络在Conv5-3层的输出(y,y+,y-),特征提取模块中具体的层、卷积层参数设置和输出维度大小如表1所示:
表1
相似性度量模块的输出维度为2×1,表示x1和x1 +,x1 -的相似度;
步骤2,定义三元组目标确认网络的目标损失函数:L((x,x+,x-);γ;S)=max{0,γ-S(y,y+)+S(y,y-)},其中S(y,y+),表示y和y+之间的余弦相似度,S(y,y-),表示y和y-之间的余弦相似度,γ为阈值参数,max()为求最大值函数;
步骤3,训练三元组目标确认网络模型Mtri;
步骤3.1、制作训练样本集Mtrain和标签文件label;
步骤3.1.1、在公开的目标跟踪OTB数据集上任意选取Nu个视频序列,作为训练视频数据集VNu={Vnum},1≤num≤Nu,其中Vnum表示第num个训练视频,训练视频个数计数器变量num初始化为1;
步骤3.1.2、在第num个训练视频Vnum上进行样本制作,其中Vnum={imgk},imgk为Vnum中的第k帧图像,1≤k≤K,K为视频Vnum中图像的总帧数;
步骤3.1.3、图像帧数变量计数器变量k初始化为1;
步骤3.1.4、定义一个三元组{x,x+,x-}数据,其中x,x+,x-分别表示锚点样本、正样本和负样本;
步骤3.1.5、在视频序列Vnum中读取图像imgk,在imgk图像中手动选取目标tark作为三元组{x,x+,x-}数据中的锚点样本x,x在imgk图像中的位置信息为其中表示tark的左上角点在imgk中的列和行坐标,分别表示tark在imgk中的宽和高;
步骤3.1.6、在视频序列Vnum中读取图像imgk+1,在imgk+1图像中手动选取tark对应目标tark+1的矩形框求的r倍扩大矩形框其中 在imgk+1图像中提取对应的图像区域作为目标的感兴趣区域;
在范围内随机定义N个粒子Pn,1≤n≤N,每个粒子为一个矩形框,即Pn=(xn,yn,wn,hn),求Pn和之间的交并比Iou,如果Iou大于等于设定的交并比阈值overlap,则认为矩形框Pn在图像上对应的图像区域为三元组{x,x+,x-}数据中的正样本x+,其标签为1,否则为三元组{x,x+,x-}数据中的负样本x-,其标签为0;Iou的计算公式如下:
上式中,∩和∪分别表示交集和并集,以此循环完成一个视频序列的三元组制作,本发明中overlap的取值为0.5;
步骤3.1.8、k=k+2,如果k<K,转入步骤3.1.5;否则转入步骤3.1.9;
步骤3.1.9、num=num+1,如果num<Nu,转入步骤3.1.2;否则转入步骤3.2;
步骤3.2、设置网络模型参数,将训练样本集Mtrain按批量以及标签文件label中对应的标签值送入三元组目标确认网络中进行训练,当目标函数L收敛或者达到设置的最大迭代次数时,结束网络训练,输出网络模型Mtri;
步骤3.2.1、输入训练样本集Mtrain以及标签文件label;
步骤3.2.2、设置三元组目标确认网络模型训练参数,设置学习率变量Learning_rate、每批次数据大小变量Batch_size、训练迭代最大次数变量Max_iter,定义训练迭代次数变量为Step,Step初始化为1,具体设置如表2所示;
表2
参数 | 参数说明 | 取值 |
Learning_rate | 学习率 | 0.001 |
Max_iter | 训练最大迭代次数 | 200 |
Batch_size | 每批次数据的大小 | 6 |
Step | 训练迭代次数变量初始值 | 1 |
步骤3.2.3、在训练样本集Mtrain随机选取Batch_size个训练样本,把Batch_size个训练样本和对应的标签,送入三元组目标确认网络中,进行网络训练;
步骤3.2.4、如果目标函数L未收敛或者Step<Max_iter,则Step=Step+1,使用梯度下降法来反向修正训练模型中各网络层的权重系数,返回步骤3.2.3;否则,网络训练结束,保存三元组目标确认网络训练模型Mtri。
步骤4、采用基于三元组网络的目标跟踪稳定性方法完成目标跟踪的具体流程如图3所示;
步骤4.1、输入测试视频V,V={imgk},其中imgk为第k帧图像,图像大小为width×height,其中width、height分别为imgk的宽度和高度,1≤k≤K,K为视频总帧数;
步骤4.2、在图像imgk中手动选取目标矩形框R′k,在imgk中提取矩形框R′k对应的图像区域Objk,Objk的大小为Obj_wk×Obj_hk,其中Obj_wk、Obj_hk分别为Objk的宽和高;
步骤4.3、对R′k进行尺度扩展得到扩展后的矩形框Rk,在imgk中提取Rk对应区域的HOG特征Feak,在Feak中通过循环移位构建训练样本xk;
步骤4.3.1、以R′k的中心点为中心,以p×(R′k.width,R′k.height)为宽和高向外扩展R′k,得到扩展后的矩形框Rk,p为尺寸扩展倍数。以imgk和Rk为输入,调用开源OpenCV库函数cvSetImageROI(),在imgk中提取Rk对应的图像区域本发明中p的取值为2.5。
步骤4.3.2、将划分为M×N个互不重叠的图像块{Bm×n|1≤m≤M,1≤n≤N},其中Bm×n表示第m×n个图像块,以Bm×n为输入,调用KCF算法中getfeature()函数,得到Bm×n的r维HOG特征所有图像块的HOG特征组成的特征Feak,
步骤4.4、把训练样本xk作为输入,执行KCF算法中的训练模块,得到岭回归系数αk;
步骤4.4.1、按公式(2)计算块Bm×n与中心块BM2×N2的汉明距离hann(m,n),所有块与中心块的汉明距离组成汉明距离矩阵Mathann,用Mathann初始化高斯回归矩阵yk;
hann(m,n)=0.25×[1-cos((2×π×m)/(whann-1))]×[1-cos((2×π×n)/(hhann-1))] (2);
其中(whann,hhann)表示汉明窗的宽和高,本发明中whann=M,hhann=N;
步骤4.4.2、将训练样本集xk、高斯回归矩阵yk、学习率δ以及正则化系数λ作为输入,调用KCF算法中train()函数,得到当前帧中岭回归系数αk,本发明中学习率δ=0.012,正则化系数λ=0.001;
步骤4.4.2.1、将训练样本集xk作为输入,计算xk与xk之间的自相关矩阵;
步骤4.5、k=k+1,读取imgk,调用KCF跟踪算法中的跟踪模块,得到跟踪候选目标Trak;
步骤4.5.1、按照步骤4.3,对R′k-1进行尺度扩展得到扩展后的矩形框Rarea,在imgk中提取Rarea对应区域的HOG特征Feak,Rarea和Feak分别为目标候选区域的矩形框和特征zk;
步骤4.5.2、将xk-1、zk、αk-1和δ作为输入,调用KCF算法中detect()函数,得到目标响应图resk,在resk中求最大值resmax,其对应的位置就是目标的中心点位置ck,以ck为中心以(R′k-1.width,R′k-1.height)为宽、高的矩形框Rk就是目标框,在imgk中提取Rk对应的图像区域即为跟踪的目标Trak。
步骤4.5.2.3、求resk中的最大值resmax,resmax=max(resk),resmax对应的位置就是目标的中心点位置ck,以ck为中心以(R′k-1.width,R′k-1.height)为宽、高的矩形框Rk就是目标框,在imgk中提取Rk对应的图像区域即为跟踪的目标Trak。
步骤4.6.1、本发明采用2017年S.Ren等人在期刊IEEE Transactions on PatternAnalysis and Machine Intelligence上发表的《Faster R-CNN:Towards Real-TimeObject Detection with Region Proposal Networks》文章中的Faster R-CNN网络结构,选用在VOC-2007数据集上训练得到的Faster R-CNN目标检测器作为本发明的目标检测器;
步骤4.7、计算Trak与Deck中各个元素在空间位置上的交并比,记为Iouk,求Iouk中的最大值 如果则输出对应的检测目标,即最佳检测目标否则,将Trak作为跟踪结果Objk,并在视频图像imgk中输出Objk对应的矩形框R′k,转入步骤4.9;
步骤4.9、如果k≥K,跟踪结束,否则转入步骤4.3。
本发明针对KCF缺乏有效的目标跟踪丢失判断机制从而导致的跟踪不稳定性问题,首先设计了一个三元组目标确认网络结构,定义了一个基于相似度度量的目标损失函数;其次在视频序列的前后两帧图像上手动框选目标区域,在目标扩大区域定义随机粒子模拟目标的空间位置,通过粒子和目标区域的交并比取值制作训练正样本和负样本;用制作的三元组样本集对三元组目标确认网络模型进行训练;采用KCF算法对目标进行跟踪,采用Faster R-CNN检测器对目标进行检测,采用三元组目标确认网络模型对跟踪结果和检测结果进行目标确认。本发明在KCF算法跟踪的基础上结合检测结果来提升跟踪的稳定性,在OTB数据集上进行了实验测试,实验结果证明了本发明相对KCF算法具有更高的成功率和准确性。
本发明在OTB数据集上进行测试,OTB数据集包含11种具有不同挑战因子的视频序列,这些挑战因素有:平面内旋转、平面外旋转、尺度变换、遮挡、形变、运动模糊、快速移动、超出视野、背景杂波、光照变化、低分辨率。
本发明采用的评价指标为准确率、成功率。
1)准确率;
准确率表示被跟踪目标的中心位置与人工标记的目标真值之间的中心位置误差小于所设定阈值的帧数占总帧数的比值,阈值数设为20个像素点,准确率值越大表示跟踪性能越好。中心位置误差(center location error,CLE)计算公式如下:
2)成功率;
成功率表示在总帧数中预测目标框与实际目标框的交并比大于某一阈值的帧数占比,该阈值在0到1之间变化,一般大于0.5表示跟踪成功。
在两个数据集上本发明选取了部分序列进行了测试,图4为OTB数据集视频序列Human7上KCF算法与本发明方法跟踪对比结果,其中图4(a)从左往右依次为Human7视频序列第22帧、第61帧和第121帧图像的原图,图4(b)从左往右依次为KCF算法对Human7视频序列第22帧、第61帧和第121帧图像的跟踪结果,图4(c)从左往右依次为本发明方法对Human7视频序列第22帧、第61帧和第121帧图像的跟踪结果,图5(a)从左往右依次为David3视频序列第21帧、第60帧和第172帧图像的原图,图5(b)从左往右依次为KCF算法对David3视频序列第21帧、第60帧和第172帧图像的跟踪结果,图5(c)从左往右依次为本发明方法对David3视频序列第21帧、第60帧和第172帧图像的跟踪结果,从图中可以看到KCF方法的跟踪框和目标位置有一定的误差,而本发明方法的跟踪框一直锁定在目标上,从而证明本发明方法相对KCF方法有一定的性能提升。
表3为KCF算法与本发明方法在OTB数据集上的平均成功率和平均准确率的客观评价结果。由表3可见,相对KCF算法,本发明方法在OTB数据集上的平均成功率和平均准确率分别提高了40.6%、21.3%,本发明方法具有更好的跟踪稳定性。
表3
Claims (5)
1.一种基于三元组网络的目标跟踪稳定性方法,其特征在于,具体按照以下步骤实施:
步骤1、设计三元组目标确认网络结构;
步骤2、定义三元组目标确认网络的目标损失函数;
步骤3、离线训练三元组目标确认网络,得到训练后的网络模型Mtri;
步骤4、读取视频V,V={imgk},imgk为第k帧图像,1≤k≤K,K为视频V中的图像总帧数,采用基于三元组网络的目标跟踪稳定性方法对视频V进行目标跟踪,输出目标跟踪结果RS={R′k},R′k表示imgk的目标跟踪框。
2.根据权利要求1所述一种基于三元组网络的目标跟踪稳定性方法,其特征在于,所述步骤1具体过程为:
步骤1中三元组目标确认网络结构由输入模块、特征提取模块和相似性度量模块串联组成;
对三元组数据(x,x+,x-)分别进行归一化处理,得到归一化后的三元组数据(x1,x1 +,x1 -),三元组数据(x1,x1 +,x1 -)大小都为w×h×c,把(x1,x1 +,x1 -)送入网络的输入模块,其中w×h为图像的大小,c为图像的通道数;
特征提取模块包括三个权值共享的卷积网络,每个卷积网络包括5组卷积层和1个最大池化层,具体连接顺序为:[Conv1]—[MaxPool]—[Conv2-1-Conv2-2-Conv2-3]—[Conv3-1-Conv3-2-Conv3-3-Conv3-4]—[Conv4-1-Conv4-2-Conv4-3-Conv4-4-Conv4-5-Conv4-6]—[Conv5-1-Conv5-2-Conv5-3],3个卷积网络在Conv5-3层的输出分别表示为y、y+和y-;
相似性度量模块的输出维度为2,一维为x1和x1 +的相似度,另一维为x1和x1 -的相似度。
4.根据权利要求1所述一种基于三元组网络的目标跟踪稳定性方法,其特征在于,所述步骤3具体过程为:
步骤3.1、制作训练样本集Mtrain和标签文件label;
步骤3.2、设置网络模型参数,将训练样本集Mtrain和标签文件label按批量送入三元组目标确认网络中进行训练,当目标函数L收敛或者达到设置的最大迭代次数时,结束网络训练,输出网络模型Mtri。
5.根据权利要求1所述一种基于三元组网络的目标跟踪稳定性方法,其特征在于,所述步骤4具体过程为:
步骤4.1、输入视频V,V={imgk},其中imgk为第k帧图像,图像大小为width×height,其中width、height分别为imgk的宽度和高度,1≤k≤K,K为视频总帧数;
步骤4.2、在图像imgk中对目标进行手动框选,得到目标的矩形框R′k,在imgk中提取矩形框R′k对应的图像区域Objk,即为目标图像,Objk大小为Obj_wk×Obj_hk,其中Obj_wk、Obj_hk分别为Objk的宽和高;
步骤4.3、定义交并比阈值变量overlap,对R′k进行尺度扩展得到扩展后的矩形框Rk,在imgk中提取Rk对应区域的HOG特征Feak,在Feak中通过循环移位构建训练样本xk;
步骤4.4、把Feak作为输入,执行KCF算法中的训练模块,得到岭回归系数αk;
步骤4.5、k=k+1,读取imgk,执行KCF跟踪算法中的跟踪模块,得到跟踪候选目标Trak;
步骤4.7、计算Trak与Deck中各个元素在空间位置上的交并比,记为Iouk,求Iouk中的最大值 如果则输出对应的检测目标,即最佳检测目标否则,将Trak作为跟踪结果Objk,并在视频图像imgk中输出Objk对应的矩形框R′k,转入步骤4.9;
步骤4.9、如果k≥K,跟踪结束,否则转入步骤4.3。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110728935.1A CN113379788B (zh) | 2021-06-29 | 2021-06-29 | 一种基于三元组网络的目标跟踪稳定性方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110728935.1A CN113379788B (zh) | 2021-06-29 | 2021-06-29 | 一种基于三元组网络的目标跟踪稳定性方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113379788A true CN113379788A (zh) | 2021-09-10 |
CN113379788B CN113379788B (zh) | 2024-03-29 |
Family
ID=77579919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110728935.1A Active CN113379788B (zh) | 2021-06-29 | 2021-06-29 | 一种基于三元组网络的目标跟踪稳定性方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113379788B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114862914A (zh) * | 2022-05-26 | 2022-08-05 | 淮阴工学院 | 一种基于检测跟踪一体式的行人跟踪方法 |
CN115576267A (zh) * | 2022-11-07 | 2023-01-06 | 河北工业大学 | 一种基于数字孪生的轮毂机加工尺寸误差修正方法 |
CN116665133A (zh) * | 2023-07-24 | 2023-08-29 | 山东科技大学 | 基于三元组网络的安全帽检测跟踪方法、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
CN109410242A (zh) * | 2018-09-05 | 2019-03-01 | 华南理工大学 | 基于双流卷积神经网络的目标跟踪方法、系统、设备及介质 |
CN109483507A (zh) * | 2018-12-04 | 2019-03-19 | 北京壹氢科技有限公司 | 一种多个轮式机器人行走的室内视觉定位方法 |
CN111862156A (zh) * | 2020-07-17 | 2020-10-30 | 中南民族大学 | 一种基于图匹配的多目标跟踪方法和系统 |
CN112116626A (zh) * | 2020-08-04 | 2020-12-22 | 北京交通大学 | 一种基于柔性卷积的单目标跟踪方法 |
CN112560656A (zh) * | 2020-12-11 | 2021-03-26 | 成都东方天呈智能科技有限公司 | 一种联合注意力机制端到端训练的行人多目标跟踪方法 |
-
2021
- 2021-06-29 CN CN202110728935.1A patent/CN113379788B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
CN109410242A (zh) * | 2018-09-05 | 2019-03-01 | 华南理工大学 | 基于双流卷积神经网络的目标跟踪方法、系统、设备及介质 |
CN109483507A (zh) * | 2018-12-04 | 2019-03-19 | 北京壹氢科技有限公司 | 一种多个轮式机器人行走的室内视觉定位方法 |
CN111862156A (zh) * | 2020-07-17 | 2020-10-30 | 中南民族大学 | 一种基于图匹配的多目标跟踪方法和系统 |
CN112116626A (zh) * | 2020-08-04 | 2020-12-22 | 北京交通大学 | 一种基于柔性卷积的单目标跟踪方法 |
CN112560656A (zh) * | 2020-12-11 | 2021-03-26 | 成都东方天呈智能科技有限公司 | 一种联合注意力机制端到端训练的行人多目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
龚畅;王华君;李荣;徐平平;: "基于状态依赖检测的视频运动目标轨迹跟踪算法", 现代电子技术, no. 07, 1 April 2016 (2016-04-01) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114862914A (zh) * | 2022-05-26 | 2022-08-05 | 淮阴工学院 | 一种基于检测跟踪一体式的行人跟踪方法 |
CN115576267A (zh) * | 2022-11-07 | 2023-01-06 | 河北工业大学 | 一种基于数字孪生的轮毂机加工尺寸误差修正方法 |
CN116665133A (zh) * | 2023-07-24 | 2023-08-29 | 山东科技大学 | 基于三元组网络的安全帽检测跟踪方法、设备及存储介质 |
CN116665133B (zh) * | 2023-07-24 | 2023-10-13 | 山东科技大学 | 基于三元组网络的安全帽检测跟踪方法、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113379788B (zh) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108734151B (zh) | 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法 | |
CN113379788B (zh) | 一种基于三元组网络的目标跟踪稳定性方法 | |
CN107424177B (zh) | 基于连续相关滤波器的定位修正长程跟踪方法 | |
CN105678284B (zh) | 一种固定位人体行为分析方法 | |
CN109118473B (zh) | 基于神经网络的角点检测方法、存储介质与图像处理系统 | |
CN112418212B (zh) | 一种基于EIoU改进的YOLOv3算法 | |
CN109934810B (zh) | 一种基于改进粒子群小波神经网络的缺陷分类方法 | |
CN110208660B (zh) | 一种用于电力设备局部放电缺陷诊断的训练方法及装置 | |
CN113361542B (zh) | 一种基于深度学习的局部特征提取方法 | |
CN104299247A (zh) | 一种基于自适应测量矩阵的视频目标跟踪方法 | |
CN111340842A (zh) | 一种基于联合模型的相关滤波目标跟踪算法 | |
CN106485269A (zh) | 基于混合统计分布与多部件模型的sar图像目标检测方法 | |
CN112561881A (zh) | 基于评价模型的红外图像自适应数据增强方法 | |
CN102663351A (zh) | 基于条件外观模型的人脸特征点自动标定方法 | |
CN112364974B (zh) | 一种基于激活函数改进的YOLOv3算法 | |
CN111429481B (zh) | 一种基于自适应表达的目标追踪方法、装置及终端 | |
CN106295674B (zh) | 一种基于多粒子群算法的图像目标匹配检测方法及系统 | |
CN111383281A (zh) | 一种基于rbf神经网络的摄像机标定方法 | |
CN113298850A (zh) | 一种基于注意力机制与特征融合的目标跟踪方法及系统 | |
CN112489088A (zh) | 一种基于记忆单元的孪生网络视觉跟踪方法 | |
CN111462180A (zh) | 基于与或图aog的目标跟踪方法 | |
CN107358625B (zh) | 基于SPP Net和感兴趣区域检测的SAR图像变化检测方法 | |
CN108986139A (zh) | 一种用于目标跟踪的带有重要性图的特征整合方法 | |
CN113111850A (zh) | 基于感兴趣区域变换的人体关键点检测方法、装置与系统 | |
CN117152062A (zh) | 一种基于可变形卷积自适应框表面缺陷检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |