CN111753667A - 一种基于孪生网络的智能汽车单目标跟踪方法 - Google Patents
一种基于孪生网络的智能汽车单目标跟踪方法 Download PDFInfo
- Publication number
- CN111753667A CN111753667A CN202010459367.5A CN202010459367A CN111753667A CN 111753667 A CN111753667 A CN 111753667A CN 202010459367 A CN202010459367 A CN 202010459367A CN 111753667 A CN111753667 A CN 111753667A
- Authority
- CN
- China
- Prior art keywords
- module
- mish
- convolution
- channel
- template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000004364 calculation method Methods 0.000 claims abstract description 27
- 238000013441 quality evaluation Methods 0.000 claims abstract description 10
- 101150060512 SPATA6 gene Proteins 0.000 claims description 28
- 238000001514 detection method Methods 0.000 claims description 25
- 238000000605 extraction Methods 0.000 claims description 14
- 239000013598 vector Substances 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 230000000717 retained effect Effects 0.000 claims description 3
- 238000001303 quality assessment method Methods 0.000 claims description 2
- 238000001914 filtration Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于孪生网络的智能汽车单目标跟踪方法,将模板与待检测图像经由Mish‑channel‑dark网络构成的孪生网络提取后,得到其各自对应的特征信息,随后将特征信息输入至相似判断分支与质量评估分支,最后通过互相关计算确定相似度,并完成模板更新。其中Mish‑channel‑dark网络由mish卷积模块、m‑Residual模块、通道注意力模块以及结构体构成。本发明提高了跟踪算法的推理能力和抗干扰能力,加入了通道注意力(channel attention)模块,显著提高网络的跟踪精度,降低了目标消失再出现时检索对象的时间,有效的提高了网络的实用性。本发明设计的孪生网络性能较好,在部署时仅需较低配置即可达到较高的速度。
Description
技术领域
本发明属于智能汽车视觉技术领域,特别涉及了一种基于孪生网络的智能汽车单目标跟踪方法。
背景技术
目标跟踪(object tracking)技术是指利用在给定某视频序列初始帧的目标大小与位置的情况下,确定后续帧中该目标的大小与位置。通过目标跟踪技术可以让计算机更充分的使用所获取的数据信息。与目标检测(object detection)不同的是目标跟踪不仅需要获取目标当前位置信息与分类信息,还需要根据相关算法分析出当前物体是否为之前所确定的物体,这也使得该任务具有非同寻常的研究价值。目标跟踪可以应用在无人驾驶当中,分析车辆或者行人的运动,通过预测轨迹判断是否存在安全隐患;以及监控人流密度大的区域,通过分析行人的行走路径判断是否有可疑人员等等。
目前单目标跟踪方法主要可以分为滤波类、深度学习类两类。其中滤波类因结构简单一度成为主流,但是随着研究的深入,滤波类跟踪方法的低精度的缺点愈发难以解决。与此同时,随着计算机算力的增强,数据集的扩展,对于卷积的研究深入,深度学习类单目标跟踪方法逐渐崭露头角。
孪生网络跟踪法是在深度学习的思想下所产生的一种新型的目标跟踪方法。通过学习人类的跟踪模式,利用计算机实现被跟踪者与检测图之间的特征信息对比,采用卷积网络的高速计算与神经网络的非线性运算,从而既保证了传统滤波类目标跟踪方法的速度又保证了跟踪时的精度。
从目前国内外学者主要研究内容看,智能汽车如何在行驶中保持对某一特定目标的跟踪是研究的热点。
发明内容
本发明针对道路行驶中的智能汽车对某一特定物体(行人、车辆等)的跟踪精度与速度问题,提出了一种新型的孪生网络单目标跟踪方法。技术方案如下:
一种基于孪生网络的智能汽车单目标跟踪方法,包括如下:
S1:设计mish卷积模块mish-convolutional;
S2:设计m-Residual模块;
S3:设计通道注意力模块;
S4:设计结构体;
S5:设计Mish-channel-dark部分与特征信号的多次提取;
S6:设置网络输入与特征的提取;
S7:进行相似性判断
S8:更新模板以及目标跟踪。
进一步,所述S1的实现包括如下:
mish卷积模块mish-convolutional包括一个卷积层(conv2d)、批量归一化(BN)层、mish激活层序列。
进一步,所述S2的实现包括如下:
所述m-Residual模块包括2个mish卷积模块与一个直连接层;
其中,一个mish卷积模块内部的卷积层的尺寸为1*1,另一个mish卷积模块内部的卷积层的尺寸为为3*3。
进一步,所述S3的实现包括如下:
先构建一个由全局最大池化和一个全局平均池化组成的并联运算模块,随后构建一个MLP模块;
其中,MLP模块由两个1*1*128的卷积层和一个Mish激活层构成,且卷积层1与卷积层2的参数共享。
进一步,所述S4的实现包括如下:
所述结构体包括2个mish卷积模块、1个m-Residual模块、一个通道注意力模块串行;
其中,2个mish卷积模块尺寸分别为1*1与3*3。
进一步,所述S5的实现包括如下:
S5.1:构建一个3*3的mish卷积模块,其输出通道数为32,卷积核的步长为1,再次串行构建一个3*3的mish卷积模块,输出通道数变为64,卷积核的步长变为2;
S5.2:串行构建一个结构体,其中1*1的mish卷积模块的输出通道为32,3*3的mish卷积模块的输出通道数为64;随后,将得到的特征信号输入一个3*3的mish卷积模块,该卷积核的步长为2,输出通道数为128;
S5.3:构建2个串行的结构相同的结构体,其中1*1的mish卷积模块的输出通道数为64,3*3的mish卷积模块的输出通道数为128,第2个结构体的通道注意力模块为特征提取层,随后构建一个3*3的mish卷积模块,其步长为2,输出通道为256;
S5.4:构建8个串行的结构相同的结构体;其中1*1的mish卷积模块的输出通道数为128,3*3的mish卷积模块的输出通道数为256,第8个结构体的通道注意力模块为特征提取层,随后构建一个3*3的mish卷积模块,其步长为2,输出通道为512;
S5.5:构建8个串行的结构相同的结构体;其中1*1的mish卷积模块的输出通道数为256,3*3的mish卷积模块的输出通道数为512,第8个结构体的通道注意力模块为特征提取层,随后构建一个3*3的mish卷积模块,其步长为2,输出通道为1024;
S5.6:构建4个串行的结构相同的结构体,其中1*1的mish卷积模块的输出通道数为512,3*3的mish卷积模块的输出通道数为1024;第4个结构体的通道注意力模块为特征提取层。
进一步,所述S6的实现包括如下:
选定模板Z,将其尺寸缩放为(127*127*3)。将输入帧分为n个待检测图像X1X2…Xn;随后将待检测图像Xi(i=1,2…n)缩放为(255*255*3)的尺寸;将模板Z与待检测图像Xi(i=1,2…n)送入由Mish-channel-dark组成的孪生网络中,这两个网络共享权重;
其中对于模块Mish-convolutional,有计算公式:
MCom*m(n)=mish(bn(conv2d(n)))=bn(conv2d(n))×tanh(ln(1+ebn(conv2d(n))))
其中n为输入值,bn为批量归一化计算,conv2d为二维卷积计算,下标m*m为该模块的卷积尺寸;
对于模块m-Residual,有计算公式:
MRe(u)=MCo3*3(MCo1*1(u))+u
其中u为输入值
对于模块channel-attention,有计算公式:
Mc(T)=σ(MLP(AvgPool(T))+MLP(MaxPool(T)))
其中T为层输入特征值,σ为mish激活函数;
当模板Z通过Mish-channel-dark网络后,可以得到模板特征信号L(Z)=(LZ1,LZ2,LZ3),同理当检测图Xi(i=1,2…n)经Mish-channel-dark网络后,得到特征信号
进一步,所述S7的实现包括如下:
将模板特征信号L(Z)复制为L1(Z)、L2(Z),将检测图的特征信号L(Xi)复制为L1(Xi)、L2(Xi);
将L1(Z)、L1(Xi)送入相似性判断分支,由公式:
EW(Xi)=EW(L1(Z),L1(Xi))=||L1(Z)-L1(Xi)||1
得到各检测图所对应的相似度值,由此可组为一个n维相似向量:
EW=(EW(X1),EW(X1)…EW(X1));
将L2(Z)、L2(X)输入质量评估分支,由质量评分公式:
可得其相似质量评估分数;其中,l,r,t,d的计算公式如下:
其中(lZ,tZ)为模板Z的左上角坐标,(rZ,bZ)为模板Z的右下角坐标。(lX,tX)为待检测图的左上角坐标,(rX,bX)为各待检测图的右下角坐标;
得到各检测图的PAS权重向量:
P=(PAS(X1),PAS(X2)…PAS(Xn))
最后将质量评估分支的PAS权重向量与相似判断分支的结果EW进行互相关运算,由公式:
得出各检测图所对应的最终相似度值R=(R(pe1),R(pe2)…R(pen))。
进一步,所述S8的实现包括如下:
将各检测图所对应的最终相似度值进行softmax运算,计算公式为:
G=softmax(R)
R为最终相似度值;输出Gi=1所对应的索引向量,该所对应的检测图即是模板所对应的物体;随后将模板更新为该检测图,而当Gi=0(i=1,2…n)时,可视为没有对应模板的检测图,则保持原模板。
本发明的有益效果:
(1)保持了深度学习常用的端到端方法,利用了Mish-channel-dark网络,相较于现有的以resnet53为骨干(backbone)的网络,充分提取了目标信息,提高了跟踪算法的推理能力和抗干扰能力。
(2)利用了mish激活函数的平滑性,加速了网络的训练速度和平滑性,使得在超参不变的情况下缓解了网络的过拟合。
(3)加入了通道注意力(channel attention)模块,在不改变原有计算精度的同时,提高了网络的跟踪精度,降低了目标消失再出现时检索对象的时间,有效的提高了网络的实用性。
(4)因为本发明设计的孪生网络性能较好,网络一经训练完,在部署时仅需较低配置(如仅有CPU)即可达到较高的速度(60+fps),在速度上足以媲美目前工业上常见的滤波算法。
附图说明
图1.本发明的算法流程图
图2.本发明的mish-convolutional架构图
图3.本发明的m-Residual架构图
图4.本发明的通道注意力模块示意图
图5.结构体示意图
图6.本发明的跟踪效果图
其中:(a)开始时的模板,(b)跟踪过程中的效果图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图1所示的本发明算法的总体运行流程,模板与待检测图像经由Mish-channel-dark网络构成的孪生网络提取后,得到其各自对应的特征信息。随后将特征信息输入至相似判断分支与质量评估分支,最后通过互相关计算确定相似度,并完成模板更新。
本发明的具体实施过程包括如下:
Step1:设计mish卷积模块(mish-convolutional)
如图2所示,mish卷积模块(mish-convolutional)由一个卷积层(conv2d)、批量归一化(BN)层、mish激活层序列组成。
其中所有卷积层的步长(stride)不指明时均为1。
Step2:设计m-Residual模块
如图3所示,m-Residual模块由2个mish卷积模块与一个直连接层组成。
其中,1*1的mish卷积模块是指其内部的卷积层的尺寸为1*1,同理可知3*3的mish卷积模块的内部卷积层尺寸为3*3。
Step3:设计通道注意力模块
如图4所示,先构建一个由全局最大池化(MaxPool)和一个全局平均池化(AvgPool)组成的并联运算模块。随后构建一个多层感知机(MLP)模块。
其中,多层感知机(MLP)模块由两个(1*1*128)的卷积层和一个Mish激活层构成,且卷积层1与卷积层2的参数共享。
Step4:设计结构体
如图5所示,结构体由2个mish卷积模块、1个m-Residual模块、一个通道注意力模块串行组成。
其中,2个mish卷积模块尺寸分别为1*1与3*3。
Step5:设计Mish-channel-dark部分与特征信号的多次提取
如表1所示,完成Mish-channel-dark的构建:
首先构建一个3*3的mish卷积模块,其输出通道数为32,卷积核的步长为1。再次串行构建一个3*3的mish卷积模块,输出通道数变为64,卷积核的步长变为2。
之后串行构建一个结构体,其中1*1的mish卷积模块的输出通道为32,3*3的mish卷积模块的输出通道数为64。随后,将得到的特征信号输入一个3*3的mish卷积模块,该卷积核的步长为2,输出通道数为128。
之后构建2个串行的结构相同的结构体。其中1*1的mish卷积模块的输出通道数为64,3*3的mish卷积模块的输出通道数为128。第2个结构体的通道注意力模块为特征提取层。随后构建一个3*3的mish卷积模块,其步长为2,输出通道为256。
之后构建8个串行的结构相同的结构体。其中1*1的mish卷积模块的输出通道数为128,3*3的mish卷积模块的输出通道数为256。第8个结构体的通道注意力模块为特征提取层。随后构建一个3*3的mish卷积模块,其步长为2,输出通道为512。
之后构建8个串行的结构相同的结构体。其中1*1的mish卷积模块的输出通道数为256,3*3的mish卷积模块的输出通道数为512。第8个结构体的通道注意力模块为特征提取层。随后构建一个3*3的mish卷积模块,其步长为2,输出通道为1024。
之后构建4个串行的结构相同的结构体。其中1*1的mish卷积模块的输出通道数为512,3*3的mish卷积模块的输出通道数为1024。第4个结构体的通道注意力模块为特征提取层。
表1
Step6:设置网络输入与特征的提取
选定模板Z,将其尺寸缩放为(127*127*3)。将输入帧分为n个待检测图像X1X2…Xn。随后将待检测图像Xi(i=1,2…n)缩放为(255*255*3)的尺寸。将模板Z与待检测图像Xi(i=1,2…n)送入由Mish-channel-dark组成的孪生网络中。由于是孪生网络,所以这两个网络的共享权重。
其中对于模块Mish-convolutional,有计算公式:
MCom*m(n)=mish(bn(conv2d(n)))=bn(conv2d(n))×tanh(ln(1+ebn(conv2d(n))))
其中n为输入值,bn为批量归一化计算,conv2d为二维卷积计算,mish表示mish激活函数,tanh为双曲正切函数,MCom*m(n)表示该模块的输出值,其下标m*m表示该模块所用的卷积核尺寸。
由此计算公式可得图像经过模块Mish-convolutional所得到的特征。
对于模块m-Residual,有计算公式:
MRe(u)=MCo3*3(MCo1*1(u))+u
其中u为输入值,MRe(u)为图像经模块m-Residual所得的特征值。
由此计算公式可得图像经过模块m-Residual所得到的特征。
对于模块channel-attention,有计算公式:
Mc(T)=σ(MLP(AvgPool(T))+MLP(MaxPool(T)))
其中T为层输入特征值,σ为mish激活函数,Mc(T)为输入值T经模块channel-attention所得到的输出值。
由此计算公式可得图像经过模块channel-attention所得到的特征。
由此,当模板Z通过Mish-channel-dark网络后,可以得到模板特征信号L(Z)=(LZ1,LZ2,LZ3),同理当检测图Xi(i=1,2…n)经Mish-channel-dark网络后,得到检测图的特征信号
Step7:进行相似性判断
将L(Z)复制为L1(Z)、L2(Z),将L(Xi)复制为L1(Xi)、L2(Xi)。
将L1(Z)、L1(Xi)送入相似性判断分支,由公式:
EW(Xi)=EW(L1(Z),L1(Xi))=||L1(Z)-L1(Xi)||1
其中,EW(Xi)表示第i(i=1,2,3…n)个检测图Xi相对于模板Z的相似度值。
得到各检测图所对应的相似度值,由此可组为一个n维相似向量:
EW=(EW(X1),EW(X1)…EW(X1))。
将L2(Z)、L2(X)输入质量评估分支,由质量评估公式(PAS,Quality AssessmentScore):
可得其相似质量评估分数。其中,变量l,r,t,d的计算公式如下:
其中(lZ,tZ)为模板Z的左上角坐标,(rZ,dZ)为模板Z的右下角坐标。(lX,tX)为待检测图的左上角坐标,(rX,dX)为各待检测图的右下角坐标。
由此,可以得到各检测图的PAS权重向量:
P=(PAS(X1),PAS(X2)…PAS(Xn))
最后将质量评估分支的PAS权重向量与相似判断分支的结果EW进行互相关(cross-correlation)运算,由公式:
得出各检测图所对应的最终相似度值R=(R(pe1),R(pe2)…R(pen))。
Step8:模板的更新与目标的跟踪
将各检测图所对应的最终相似度值进行softmax运算,由公式:
G=softmax(R)
输出Gi=1所对应的索引向量,该所对应的检测图即是模板所对应的物体。随后将模板更新为该检测图。而当Gi=0(i=1,2…n)时,可视为没有对应模板的检测图,则保持原模板。本发明的跟踪效果如图6所示,可以看出,智能车辆选定被跟踪车辆后,经过一段时间的跟踪,依然可以稳定而良好的识别出要跟踪的对象,在跟踪精度方面远胜于传统的滤波类方法。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技术所创的等效方式或变更均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于孪生网络的智能汽车单目标跟踪方法,其特征在于,包括如下:
S1:设计mish卷积模块mish-convolutional;
S2:设计m-Residual模块;
S3:设计通道注意力模块;
S4:设计结构体;
S5:设计Mish-channel-dark部分与特征信号的多次提取;
S6:设置网络输入与特征的提取;
S7:进行相似性判断
S8:更新模板以及目标跟踪。
2.根据权利要求1所述的一种基于孪生网络的智能汽车单目标跟踪方法,其特征在于,所述S1的实现包括如下:
mish卷积模块mish-convolutional包括一个卷积层(conv2d)、批量归一化(BN)层、mish激活层序列。
3.根据权利要求1所述的一种基于孪生网络的智能汽车单目标跟踪方法,其特征在于,所述S2的实现包括如下:
所述m-Residual模块包括2个mish卷积模块与一个直连接层;
其中,一个mish卷积模块内部的卷积层的尺寸为1*1,另一个mish卷积模块内部的卷积层的尺寸为为3*3。
4.根据权利要求1所述的一种基于孪生网络的智能汽车单目标跟踪方法,其特征在于,所述S3的实现包括如下:
先构建一个由全局最大池化和一个全局平均池化组成的并联运算模块,随后构建一个MLP模块;
其中,MLP模块由两个1*1*128的卷积层和一个Mish激活层构成,且卷积层1与卷积层2的参数共享。
5.根据权利要求1所述的一种基于孪生网络的智能汽车单目标跟踪方法,其特征在于,所述S4的实现包括如下:
所述结构体包括2个mish卷积模块、1个m-Residual模块、一个通道注意力模块串行;
其中,2个mish卷积模块尺寸分别为1*1与3*3。
6.根据权利要求1所述的一种基于孪生网络的智能汽车单目标跟踪方法,其特征在于,所述S5的实现包括如下:
S5.1:构建一个3*3的mish卷积模块,其输出通道数为32,卷积核的步长为1,再次串行构建一个3*3的mish卷积模块,输出通道数变为64,卷积核的步长变为2;
S5.2:串行构建一个结构体,其中1*1的mish卷积模块的输出通道为32,3*3的mish卷积模块的输出通道数为64;随后,将得到的特征信号输入一个3*3的mish卷积模块,该卷积核的步长为2,输出通道数为128;
S5.3:构建2个串行的结构相同的结构体,其中1*1的mish卷积模块的输出通道数为64,3*3的mish卷积模块的输出通道数为128,第2个结构体的通道注意力模块为特征提取层,随后构建一个3*3的mish卷积模块,其步长为2,输出通道为256;
S5.4:构建8个串行的结构相同的结构体;其中1*1的mish卷积模块的输出通道数为128,3*3的mish卷积模块的输出通道数为256,第8个结构体的通道注意力模块为特征提取层,随后构建一个3*3的mish卷积模块,其步长为2,输出通道为512;
S5.5:构建8个串行的结构相同的结构体;其中1*1的mish卷积模块的输出通道数为256,3*3的mish卷积模块的输出通道数为512,第8个结构体的通道注意力模块为特征提取层,随后构建一个3*3的mish卷积模块,其步长为2,输出通道为1024;
S5.6:构建4个串行的结构相同的结构体,其中1*1的mish卷积模块的输出通道数为512,3*3的mish卷积模块的输出通道数为1024;第4个结构体的通道注意力模块为特征提取层。
7.根据权利要求1所述的一种基于孪生网络的智能汽车单目标跟踪方法,其特征在于,所述S6的实现包括如下:
选定模板Z,将其尺寸缩放为(127*127*3)。将输入帧分为n个待检测图像X1X2…Xn;随后将待检测图像Xi(i=1,2…n)缩放为(255*255*3)的尺寸;将模板Z与待检测图像Xi(i=1,2…n)送入由Mish-channel-dark组成的孪生网络中,这两个网络共享权重;
其中对于模块Mish-convolutional,有计算公式:
MCom*m(n)=mish(bn(conv2d(n)))=bn(conv2d(n))×tanh(ln(1+ebn(conv2d(n))))
其中n为输入值,bn为批量归一化计算,conv2d为二维卷积计算,下标m*m为该模块的卷积尺寸;
对于模块m-Residual,有计算公式:
MRe(u)=MCo3*3(MCo1*1(u))+u
其中u为输入值
对于模块channel-attention,有计算公式:
Mc(T)=σ(MLP(AvgPool(T))+MLP(MaxPool(T)))
其中T为层输入特征值,σ为mish激活函数;
8.根据权利要求1所述的一种基于孪生网络的智能汽车单目标跟踪方法,其特征在于,所述S7的实现包括如下:
将模板特征信号L(Z)复制为L1(Z)、L2(Z),将检测图的特征信号L(Xi)复制为L1(Xi)、L2(Xi);
将L1(Z)、L1(Xi)送入相似性判断分支,由公式:
EW(Xi)=EW(L1(Z),L1(Xi))=||L1(Z)-L1(Xi)||1
得到各检测图所对应的相似度值,由此可组为一个n维相似向量:
EW=(EW(X1),EW(X1)…EW(X1));
将L2(Z)、L2(X)输入质量评估分支,由PAS评分公式:
可得其相似质量评估分数;其中,l,r,t,d的计算公式如下:
其中(lZ,tZ)为模板Z的左上角坐标,(rZ,bZ)为模板Z的右下角坐标。(lX,tX)为待检测图的左上角坐标,(rX,bX)为各待检测图的右下角坐标;
得到各检测图的PAS权重向量:
P=(PAS(X1),PAS(X2)…PAS(Xn))
最后将质量评估分支的PAS权重向量与相似判断分支的结果EW进行互相关运算,由公式:
得出各检测图所对应的最终相似度值R=(R(pe1),R(pe2)…R(pen))。
9.根据权利要求1所述的一种基于孪生网络的智能汽车单目标跟踪方法,其特征在于,所述S8的实现包括如下:
将各检测图所对应的最终相似度值进行softmax运算,计算公式为:
G=softmax(R)
R为最终相似度值;输出Gi=1所对应的索引向量,该所对应的检测图即是模板所对应的物体;随后将模板更新为该检测图,而当Gi=0(i=1,2…n)时,可视为没有对应模板的检测图,则保持原模板。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010459367.5A CN111753667B (zh) | 2020-05-27 | 2020-05-27 | 一种基于孪生网络的智能汽车单目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010459367.5A CN111753667B (zh) | 2020-05-27 | 2020-05-27 | 一种基于孪生网络的智能汽车单目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111753667A true CN111753667A (zh) | 2020-10-09 |
CN111753667B CN111753667B (zh) | 2024-05-14 |
Family
ID=72674567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010459367.5A Active CN111753667B (zh) | 2020-05-27 | 2020-05-27 | 一种基于孪生网络的智能汽车单目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111753667B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112508001A (zh) * | 2020-12-03 | 2021-03-16 | 安徽理工大学 | 一种基于多光谱波段筛选和改进U-Net的煤矸石定位方法 |
CN113643329A (zh) * | 2021-09-01 | 2021-11-12 | 北京航空航天大学 | 一种基于孪生注意力网络的在线更新目标跟踪方法和系统 |
CN113822153A (zh) * | 2021-08-11 | 2021-12-21 | 桂林电子科技大学 | 一种基于改进DeepSORT算法的无人机跟踪方法 |
CN113836790A (zh) * | 2021-08-25 | 2021-12-24 | 成都鲁易科技有限公司 | 电动单车智能化等级的测评方法、装置及计算机设备 |
CN114372997A (zh) * | 2021-12-06 | 2022-04-19 | 燕山大学 | 一种基于质量及相似评估在线模板更新的目标跟踪方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
CN110675423A (zh) * | 2019-08-29 | 2020-01-10 | 电子科技大学 | 一种基于孪生神经网络和注意力模型的无人机跟踪方法 |
CN111191555A (zh) * | 2019-12-24 | 2020-05-22 | 重庆邮电大学 | 一种结合高低空间频率特征的目标跟踪方法、介质及系统 |
CN111192292A (zh) * | 2019-12-27 | 2020-05-22 | 深圳大学 | 基于注意力机制与孪生网络的目标跟踪方法及相关设备 |
-
2020
- 2020-05-27 CN CN202010459367.5A patent/CN111753667B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
CN110675423A (zh) * | 2019-08-29 | 2020-01-10 | 电子科技大学 | 一种基于孪生神经网络和注意力模型的无人机跟踪方法 |
CN111191555A (zh) * | 2019-12-24 | 2020-05-22 | 重庆邮电大学 | 一种结合高低空间频率特征的目标跟踪方法、介质及系统 |
CN111192292A (zh) * | 2019-12-27 | 2020-05-22 | 深圳大学 | 基于注意力机制与孪生网络的目标跟踪方法及相关设备 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112508001A (zh) * | 2020-12-03 | 2021-03-16 | 安徽理工大学 | 一种基于多光谱波段筛选和改进U-Net的煤矸石定位方法 |
CN113822153A (zh) * | 2021-08-11 | 2021-12-21 | 桂林电子科技大学 | 一种基于改进DeepSORT算法的无人机跟踪方法 |
CN113836790A (zh) * | 2021-08-25 | 2021-12-24 | 成都鲁易科技有限公司 | 电动单车智能化等级的测评方法、装置及计算机设备 |
CN113836790B (zh) * | 2021-08-25 | 2024-02-02 | 成都鲁易科技有限公司 | 电动单车智能化等级的测评方法、装置及计算机设备 |
CN113643329A (zh) * | 2021-09-01 | 2021-11-12 | 北京航空航天大学 | 一种基于孪生注意力网络的在线更新目标跟踪方法和系统 |
CN114372997A (zh) * | 2021-12-06 | 2022-04-19 | 燕山大学 | 一种基于质量及相似评估在线模板更新的目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111753667B (zh) | 2024-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dong et al. | A lightweight vehicles detection network model based on YOLOv5 | |
CN111753667B (zh) | 一种基于孪生网络的智能汽车单目标跟踪方法 | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
CN107038713A (zh) | 一种融合光流法和神经网络的运动目标捕捉方法 | |
CN110619268B (zh) | 基于时空分析与深度特征的行人再识别方法及装置 | |
CN110033473A (zh) | 基于模板匹配和深度分类网络的运动目标跟踪方法 | |
CN113706581B (zh) | 基于残差通道注意与多层次分类回归的目标跟踪方法 | |
CN111462173B (zh) | 基于孪生网络判别特征学习的视觉跟踪方法 | |
CN107977683A (zh) | 基于卷积特征提取和机器学习的联合sar目标识别方法 | |
Li et al. | Robust deep neural networks for road extraction from remote sensing images | |
CN106815323A (zh) | 一种基于显著性检测的跨域视觉检索方法 | |
CN108520203A (zh) | 基于融合自适应多外围框与十字池化特征的多目标特征提取方法 | |
Wang et al. | Research on gesture image recognition method based on transfer learning | |
CN115830531A (zh) | 一种基于残差多通道注意力多特征融合的行人重识别方法 | |
CN116229112A (zh) | 一种基于多重注意力的孪生网络目标跟踪方法 | |
Anwer et al. | Accident vehicle types classification: a comparative study between different deep learning models | |
CN109272036B (zh) | 一种基于深度残差网络的随机蕨目标跟踪方法 | |
CN118212572A (zh) | 一种基于改进YOLOv7的道路损坏检测方法 | |
CN108257148B (zh) | 特定对象的目标建议窗口生成方法及其在目标跟踪的应用 | |
Qiao et al. | Optimization of traffic sign detection and classification based on faster R-CNN | |
Turker et al. | 3D convolutional long short-term encoder-decoder network for moving object segmentation | |
CN115131671A (zh) | 一种跨域高分辨率遥感图像典型目标细粒度识别方法 | |
CN109887005B (zh) | 基于视觉注意机制的tld目标跟踪方法 | |
Wang et al. | Driver Fatigue Detection Using Improved Deep Learning and Personalized Framework | |
Zhang et al. | V-HPM Based Gait Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |