CN110619655B - 一种融合光流信息和Siamese框架的目标跟踪方法及装置 - Google Patents
一种融合光流信息和Siamese框架的目标跟踪方法及装置 Download PDFInfo
- Publication number
- CN110619655B CN110619655B CN201910783618.2A CN201910783618A CN110619655B CN 110619655 B CN110619655 B CN 110619655B CN 201910783618 A CN201910783618 A CN 201910783618A CN 110619655 B CN110619655 B CN 110619655B
- Authority
- CN
- China
- Prior art keywords
- frame
- optical flow
- current frame
- feature
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种融合光流信息和Siamese框架的目标跟踪方法及装置所述方法包括:获取当前第N帧及当前帧的前面的三帧的光流信息,再获取当前帧,当前帧为第N帧,其中N>3,再对当前帧的前面的三帧进行处理后,得到变形后的特征图,将变形后的特征图及当前帧特征图,作为检测帧输入时序打分模型,得到各特征图即光流整合帧的特征的权重,并将所述各特征图的权重与所述特征图进行运算得到最终的检测帧。根据本发明的方案,基于整合了光流信息的特征图并结合Siamese框架进行目标跟踪,计算精度高、速度快,可以跟踪背景复杂以及剧烈运动的对象。
Description
技术领域
本发明涉及图像识别领域,尤其涉及一种融合光流信息和Siamese框架的目标跟踪方法及装置。
背景技术
随着计算机视觉的快速发展,单目标跟踪越来越受到大众的关注。跟踪算法从卡尔曼、粒子滤波器和特征点匹配的生成式模型算法到现在的基于相关滤波框架和Siamese(孪生)框架的差别式模型算法,跟踪算法的精度及运算速度在不断提高。
基于特征点匹配的生成式模型算法的优点是模型结构简单,无训练过程,但是计算精度不高,有遮挡时特征点会消失;基于Siamese框架的全卷积网络模型算法计算速度快,但只考虑了图像的外观特征,无法跟踪背景复杂以及剧烈运动的对象。
发明内容
为解决上述技术问题,本发明提出了一种融合光流信息和Siamese框架的目标跟踪方法及装置,用以解决现有技术中基于特征点匹配的生成式模型算法计算精度不高、基于Siamese框架的全卷积网络模型算法无法跟踪背景复杂以及剧烈运动的对象的技术问题。
根据本发明的第一方面,提供一种融合光流信息和Siamese框架的目标跟踪方法,包括:
S101:获取当前帧,当前帧为第N帧,其中N>3,再获取当前帧的前面的三帧,分别是第N-3帧、第N-2帧、第N-1帧,所述第N-3帧、第N-2帧、第N-1帧分别和当前第N帧使用TVNet光流网络来计算光流,得到Flow1、Flow2、Flow3;并对Flow1、Flow2及Flow3进行裁剪(Crop)操作,得到22×22的光流矢量图P1、P2、P3;将当前帧输入特征网络,得到22×22的当前帧特征图FN;将当前帧特征图FN分别与光流矢量图P1、P2、P3结合,再对结合后的结果进行变形(Warp)操作,得到变形后的特征图F1、F2、F3;
S102:将变形后的特征图F1、F2、F3与当前帧特征图FN作为检测帧输入时序打分模型,得到所述候选检测帧的特征权重,并将所述候选检测帧的特征权重与融合了光流特征的候选检测帧按照公式(1)相乘得到最终的检测帧;
i表示当前帧的序号,Ii指当前帧第i帧,Ij指在当前帧Ii前面的某一帧如第j帧,j∈{i-T,...,i-2,i-1},T=3,即当前帧的前面的三帧;是当前帧通过融合其他帧光流信息后得到的最终的检测帧,wj->i表示由时序打分模型计算并输出的候选检测帧的特征权重;fj->i是将第j帧中的运动信息通过光流网络映射到第i帧,然后再将得出的光流结果图与第j帧图像进行变形(Warp)操作;
将第j帧中的运动信息通过光流网络映射到第i帧定义为
fj→i=W(fj,Mi→j)=W(fj,F(Ii,Ij))
其中,F(Ii,Ij)是通过所述光流网络对Ii和Ij进行光流计算,得出的结果实现了将第j帧中的运动信息映射到第i帧;fj是第i帧的特征图,W(,)是对所述光流计算得出的结果与Ij帧融合,对融合后的信息,进行变形(Warp)操作,应用到每个通道特征映射定位的线性形变方程进行变形(Warp)操作;
其中,所述时序打分模型输入为未经打分的各个时段的变形后的特征图F1、F2、F3与当前帧特征图FN,输出为候选检测帧的权重数值;
所述时序打分模型具有池化层,其中的池化层可以执行全局平均池化操作和全局最大值池化操作,通过全局平均池化操作和全局最大值池化,对每个候选检测帧包含物体的信息量进行打分,得到操作后的中间矩阵,
所述全局平均池化操作为:
其中GS-GA(...)表示全局平均池化过程。qT表示T个候选检测帧,qx和qy表示特征图中的像素点,H表示输入到全局平均池化操作前特征图的高,W表示输入到全局平均池化操作前特征图的宽;
所述全局最大值池化操作为:
GS-GM(qT)=Max(qT(qx,qy))
GS-GM(...)表示全局最大值池化过程;
所述这全局平均池化操作输出一个T×1维的向量,构成全局平均池化中间矩阵,所述全局最大值池化操作也输出一个T×1维的向量,构成全局最大值池化中间矩阵;
将所述全局平均池化中间矩阵和所述全局最大值池化中间矩阵输入共享网络层,对每个候选帧与当前帧的关联性进行打分;通过共享网络层分别得到全局平均池化和最大值池化的权值矩阵,所述共享网络层实现卷积操作,参数由经验值或训练得到;再对两个权值矩阵进行逐元素相加操作,得到权重特征向量;并将得到的权重特征向量作为激活函数Relu的输入,所述激活函数Relu为:
其中,x指输入的所述权重特征向量,α为系数,
所述时序打分模型是由卷积神经网络模型根据损失函数进行训练的。
进一步地,
所述时序打分模型是由卷积神经网络模型根据损失函数进行训练的,所述损失函数为:
l(y,v)=log(1+exp(-yv))
其中v表示训练集中等待训练的图像的候选响应图每个点的真实值,y∈{+1,-1}表示标准跟踪框的标签;通过最小化上述损失函数来不断学习、训练,当所述损失函数趋于稳定时,所述时序打分模型训练完毕,得到所述时序打分模型的系数,利用训练好的时序打分模型对候选检测帧的权重数值进行计算,从而得到候选检测帧时序权重。
进一步地,为了更好的提取候选检测帧的图像特征,所述共享网络层中的卷积神经滤波器采用可变形的卷积计算,在传统的卷积操作的作用区域上,加入了一个可学习的参数Δpn。
根据本发明第二方面,提供一种融合光流信息和Siamese框架的目标跟踪装置,包括:
获取特征模块:用于获取当前帧,当前帧为第N帧,其中N>3,再获取当前帧的前面的三帧,分别是第N-3帧、第N-2帧、第N-1帧,所述第N-3帧、第N-2帧、第N-1帧分别和当前第N帧使用TVNet光流网络来计算光流,得到Flow1、Flow2、Flow3;并对Flow1、Flow2及Flow3进行裁剪(Crop)操作,得到22×22的光流矢量图P1、P2、P3;将当前帧输入特征网络,得到22×22的当前帧特征图FN;将当前帧特征图FN分别与光流矢量图P1、P2、P3结合,再对结合后的结果进行变形(Warp)操作,得到变形后的特征图F1、F2、F3;
权重计算模块:用于将变形后的特征图F1、F2、F3与当前帧特征图FN作为检测帧输入时序打分模型,得到所述候选检测帧的特征权重,并将所述候选检测帧的特征权重与融合了光流特征的候选检测帧按照公式(1)相乘得到最终的检测帧;
i表示当前帧的序号,Ii指当前帧第i帧,Ij指在当前帧Ii前面的某一帧如第j帧,j∈{i-T,...,i-2,i-1},T=3,即当前帧的前面的三帧;是当前帧通过融合其他帧光流信息后得到的最终的检测帧,wj->i表示由时序打分模型计算并输出的候选检测帧的特征权重;fj->i是将第j帧中的运动信息通过光流网络映射到第i帧,然后再将得出的光流结果图与第j帧图像进行变形(Warp)操作;
将第j帧中的运动信息通过光流网络映射到第i帧定义为
fj→i=W(fj,Mi→j)=W(fj,F(Ii,Ij))
其中,F(Ii,Ij)是通过所述光流网络对Ii和Ij进行光流计算,得出的结果实现了将第j帧中的运动信息映射到第i帧;fj是第i帧的特征图,W(,)是对所述光流计算得出的结果与Ij帧融合,对融合后的信息,进行变形(Warp)操作,应用到每个通道特征映射定位的线性形变方程进行变形(Warp)操作;
其中,所述时序打分模型输入为未经打分的各个时段的变形后的特征图F1、F2、F3与当前帧特征图FN,输出为候选检测帧的权重数值;
所述时序打分模型具有池化层,其中的池化层可以执行全局平均池化操作和全局最大值池化操作,通过全局平均池化操作和全局最大值池化,对每个候选检测帧包含物体的信息量进行打分,得到操作后的中间矩阵,
所述全局平均池化操作为:
其中GS-GA(...)表示全局平均池化过程。qT表示T个候选检测帧,qx和qy表示特征图中的像素点,H表示输入到全局平均池化操作前特征图的高,W表示输入到全局平均池化操作前特征图的宽;
所述全局最大值池化操作为:
GS-GM(qT)=Max(qT(qx,qy))
GS-GM(...)表示全局最大值池化过程;
所述这全局平均池化操作输出一个T×1维的向量,构成全局平均池化中间矩阵,所述全局最大值池化操作也输出一个T×1维的向量,构成全局最大值池化中间矩阵;
将所述全局平均池化中间矩阵和所述全局最大值池化中间矩阵输入共享网络层,对每个候选帧与当前帧的关联性进行打分;通过共享网络层分别得到全局平均池化和最大值池化的权值矩阵,所述共享网络层实现卷积操作,参数由经验值或训练得到;再对两个权值矩阵进行逐元素相加操作,得到权重特征向量;并将得到的权重特征向量作为激活函数Relu的输入,所述激活函数Relu为:
其中,x指输入的所述权重特征向量,α为系数,
所述时序打分模型是由卷积神经网络模型根据损失函数进行训练的。
进一步地,所述时序打分模型是由卷积神经网络模型根据损失函数进行训练的,所述损失函数为:
l(y,v)=log(1+exp(-yv))
其中v表示训练集中等待训练的图像的候选响应图每个点的真实值,y∈{+1,-1}表示标准跟踪框的标签;通过最小化上述损失函数来不断学习、训练,当所述损失函数趋于稳定时,所述时序打分模型训练完毕,得到所述时序打分模型的系数,利用训练好的时序打分模型对候选检测帧的权重数值进行计算,从而得到候选检测帧时序权重。
进一步地,为了更好的提取候选检测帧的图像特征,所述共享网络层中的卷积神经滤波器采用可变形的卷积计算,在传统的卷积操作的作用区域上,加入了一个可学习的参数Δpn。
根据本发明第三方面,提供一种融合光流信息和Siamese框架的目标跟踪系统,包括:
处理器,用于执行多条指令;
存储器,用于存储多条指令;
其中,所述多条指令,用于由所述存储器存储,并由所述处理器加载并执行如前所述的融合光流信息和Siamese框架的目标跟踪方法。
根据本发明第四方面,提供一种计算机可读存储介质,所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行如前所述的融合光流信息和Siamese框架的目标跟踪方法。
根据本发明的上述方案,基于整合了光流信息的特征图并结合Siamese框架进行目标跟踪,计算精度高、速度快,可以跟踪背景复杂以及剧烈运动的对象。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,并可依照说明书的内容予以实施,以下以本发明的较佳实施例并配合附图详细说明如后。
附图说明
构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明提供如下附图进行说明。在附图中:
图1为本发明一个实施方式的融合光流信息和Siamese框架的目标跟踪系统的结构图;
图2为本发明一个实施方式的时序打分模型原理图;
图3A为传统的3×3卷积计算示意图;
图3B-图3C为可变形的卷积计算示意图;
图4为本发明提出的融合光流信息和Siamese框架的目标跟踪方法流程图;
图5为本发明提出的融合光流信息和Siamese框架的目标跟踪装置组成框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明具体实施例及相应的附图对本发明技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
首先结合图1说明本发明的融合光流信息和Siamese框架的目标跟踪系统结构,图1示出了本发明一个实施方式的融合光流信息和Siamese框架的目标跟踪系统的结构图。
获取当前帧,当前帧为第N帧(N>3),再获取当前帧的前面的三帧,分别是第N-3帧、第N-2帧、第N-1帧,第N-3帧、第N-2帧、第N-1帧分别和当前帧即第N帧使用TVNet光流网络来计算光流(所述TVNet光流网络可参见VALMADRE J,BERTINETTO L,HENRIQUES J,etal.End-to-end representation learning for correlation filter based tracking[C].Honolulu,Hawaii,USA.2017.Proceedings of the IEEE Conference on ComputerVision and Pattern Recognition.2017:2805-2813),得到Flow1、Flow2、Flow3。并对Flow1、Flow2及Flow3进行裁剪(Crop)操作,得到22×22的光流矢量图P1、P2、P3。构建以AlexNet为基础的特征网络,所述特征网络是在AlexNet的基础上,去掉全连接层构建的。将当前帧输入特征网络,得到22×22的当前帧特征图FN。将当前帧特征图FN分别与光流矢量图P1、P2、P3结合,再对结合后的结果进行变形(Warp)操作,得到变形后的特征图F1、F2、F3。最后将变形后的特征图F1、F2、F3与当前帧特征图FN作为候选检测帧输入时序打分模型,得到所述候选检测帧的特征权重,并将所述候选检测帧的特征权重与融合了光流特征的候选检测帧按照公式(1)相乘得到最终的检测帧。
其中,i表示当前帧的序号,Ii指当前帧第i帧,Ij指在当前帧Ii前面的某一帧如第j帧,j∈{i-T,...,i-2,i-1},本实施例中T=3,即当前帧的前面的三帧;是当前帧通过融合其他帧光流信息后得到的最终的检测帧,wj->i表示由时序打分模型计算并输出的候选检测帧的特征权重。fj->i是将第j帧中的运动信息通过光流网络映射到第i帧,然后再将得出的光流结果图与第j帧图像进行变形(Warp)操作;
将第j帧中的运动信息通过光流网络映射到第i帧定义为
fj→i=W(fj,Mi→j)=W(fj,F(Ii,Ij))
其中,F(Ii,Ij)是通过所述光流网络对Ii和Ij进行光流计算,得出的结果实现了将第j帧中的运动信息映射到第i帧;fj第i帧的特征图,W(,)是对所述光流计算得出的结果与Ij帧融合,对融合后的信息,进行变形(Warp)操作,应用到每个通道特征映射定位的线性形变方程进行变形(Warp)操作。
以下结合图2说明本发明的时序打分模型,图2示出了本发明的时序打分模型原理图。如图2所示,
所述时序打分模型为可变形卷积网络模型,训练好的所述时序打分模型通过对每个候选检测帧包含物体的信息量以及与当前帧的关联性进行打分,能够实现有效的候选检测帧权重大,效果小或者无效的候选检测帧权重小。所述时序打分模型的输入为未经打分的各个时段的变形后的特征图或当前帧的特征图,输出为候选检测帧的权重数值。
所述时序打分模型具有池化层,其中的池化层可以执行全局平均池化操作和全局最大值池化操作。所述时序打分模型的输入信息为未经打分的各个时段的变形后的特征图或当前帧的特征图,也称为候选检测帧,通过全局平均池化操作和全局最大值池化,对每个候选检测帧包含物体的信息量进行打分,得到操作后的中间矩阵,
所述全局平均池化操作为:
其中GS-GA(...)表示全局平均池化过程。qT表示T个候选检测帧,qx和qy表示特征图中的像素点,H表示输入到全局平均池化操作前特征图的高,W表示输入到全局平均池化操作前特征图的宽。
所述全局最大值池化操作为:
GS-GM(qT)=Max(qT(qx,qy))
GS-GM(...)表示全局最大值池化过程。
所述这全局平均池化操作输出一个T×1维的向量,构成全局平均池化中间矩阵,所述全局最大值池化操作也输出一个T×1维的向量,构成全局最大值池化中间矩阵。
将所述全局平均池化中间矩阵和所述全局最大值池化中间矩阵输入共享网络层,对每个候选帧与当前帧的关联性进行打分。通过共享网络层分别得到全局平均池化和最大值池化的权值矩阵,所述共享网络层实现卷积操作,参数由经验值或训练得到。再对两个权值矩阵进行逐元素相加操作,得到权重特征向量。并将得到的权重特征向量作为激活函数Relu的输入,所述激活函数Relu为:
其中,x指输入的所述权重特征向量,α为系数,α可以取值为0,从而得到候选检测帧时序权重。
本实施例中,为了更好的提取候选检测帧的图像特征,所述共享网络层中的卷积神经滤波器采用可变形的卷积计算,所述卷积计算的公式如下:
上述卷积计算公式是常规的卷积操作公式,W(pn)指的是卷积核参数,X指的是待卷积的图像。
在传统的卷积操作的作用区域上,加入了一个可学习的参数Δpn,该参数可以由全连接层卷积学习得到。
所述时序打分模型是由卷积神经网络模型根据损失函数
l(y,v)=log(1+exp(-yv))进行训练的,
其中v表示训练集中等待训练的图像的候选响应图每个点的真实值,y∈{+1,-1}表示标准跟踪框的标签。通过最小化上述损失函数来不断学习、训练,当所述损失函数趋于稳定时,所述时序打分模型训练完毕,得到所述时序打分模型的系数,利用训练好的时序打分模型对候选检测帧的权重数值进行计算。
以下结合图3说明可变形的卷积计算。
如图3A所示,图3A是传统的3×3卷积计算,正方形区域内的9个像素参与线性计算y=∑iwixi,其中wi为卷积滤波器的系数,xi为图像的像素值。图3B-图3C为可变形卷积计算,可以看出,参与计算的9个点为当前图像中任意像素,这样的滤波器具有更好的多样性,所能提取的特征也更加丰富。
以下结合图4说明本发明的融合光流信息和Siamese框架的目标跟踪方法,图4示出了本发明的融合光流信息和Siamese框架的目标跟踪方法流程图。如图4所示,所述方法包括:
S101:获取当前帧,当前帧为第N帧,其中N>3,再获取当前帧的前面的三帧,分别是第N-3帧、第N-2帧、第N-1帧,所述第N-3帧、第N-2帧、第N-1帧分别和当前第N帧使用TVNet光流网络来计算光流,得到Flow1、Flow2、Flow3;并对Flow1、Flow2及Flow3进行裁剪(Crop)操作,得到22×22的光流矢量图P1、P2、P3;将当前帧输入特征网络,得到22×22的当前帧特征图FN;将当前帧特征图FN分别与光流矢量图P1、P2、P3结合,再对结合后的结果进行变形(Warp)操作,得到变形后的特征图F1、F2、F3;
S102:将变形后的特征图F1、F2、F3与当前帧特征图FN作为候选检测帧输入时序打分模型,得到所述候选检测帧的特征权重,并将所述候选检测帧的特征权重与融合了光流特征的候选检测帧按照公式(1)相乘得到最终的检测帧;
其中,i表示当前帧的序号,Ii指当前帧第i帧,Ij指在当前帧Ii前面的某一帧如第j帧,j∈{i-T,...,i-2,i-1},T=3,即当前帧的前面的三帧;是当前帧通过融合其他帧光流信息后得到的最终的检测帧,wj->i表示由时序打分模型计算并输出的候选检测帧的特征权重;fj->i是将第j帧中的运动信息通过光流网络映射到第i帧,然后再将得出的光流结果图与第j帧图像进行变形(Warp)操作;
将第j帧中的运动信息通过光流网络映射到第i帧定义为
fj→i=W(fj,Mi→j)=W(fj,F(Ii,Ij))
其中,F(Ii,Ij)是通过所述光流网络对Ii和Ij进行光流计算,得出的结果实现了将第j帧中的运动信息映射到第i帧;fj是第i帧的特征图,W(,)是对所述光流计算得出的结果与Ij帧融合,对融合后的信息,进行变形(Warp)操作,应用到每个通道特征映射定位的线性形变方程进行变形(Warp)操作;
其中,所述时序打分模型输入为未经打分的各个时段的变形后的特征图、当前帧的特征图,输出为候选检测帧的权重数值;
所述时序打分模型具有池化层,其中的池化层可以执行全局平均池化操作和全局最大值池化操作,通过全局平均池化操作和全局最大值池化,对每个候选检测帧包含物体的信息量进行打分,得到操作后的中间矩阵,
所述全局平均池化操作为:
其中GS-GA(...)表示全局平均池化过程。qT表示T个候选检测帧,qx和qy表示特征图中的像素点,H表示输入到全局平均池化操作前特征图的高,W表示输入到全局平均池化操作前特征图的宽。
所述全局最大值池化操作为:
GS-GM(qT)=Max(qT(qx,qy))
GS-GM(...)表示全局最大值池化过程;
所述这全局平均池化操作输出一个T×1维的向量,构成全局平均池化中间矩阵,所述全局最大值池化操作也输出一个T×1维的向量,构成全局最大值池化中间矩阵;
将所述全局平均池化中间矩阵和所述全局最大值池化中间矩阵输入共享网络层,对每个候选帧与当前帧的关联性进行打分;通过共享网络层分别得到全局平均池化和最大值池化的权值矩阵,所述共享网络层实现卷积操作,参数由经验值或训练得到;再对两个权值矩阵进行逐元素相加操作,得到权重特征向量;并将得到的权重特征向量作为激活函数Relu的输入,所述激活函数Relu为:
从而得到候选检测帧时序权重;
所述时序打分模型是由卷积神经网络模型根据损失函数进行训练的,所述损失函数为:
l(y,v)=log(1+exp(-yv))
其中v表示训练集中等待训练的图像的候选响应图每个点的真实值,y∈{+1,-1}表示标准跟踪框的标签。通过最小化上述损失函数来不断学习、训练,当所述损失函数趋于稳定时,所述时序打分模型训练完毕,得到所述时序打分模型的系数,利用训练好的时序打分模型对候选检测帧的权重数值进行计算。
为了更好的提取候选检测帧的图像特征,所述共享网络层中的卷积神经滤波器采用可变形的卷积计算,所述卷积计算的公式如下:
在传统的卷积操作的作用区域上,加入了一个可学习的参数Δpn。
请参考图5,其为本发明提出的融合光流信息和Siamese框架的目标跟踪装置组成框图。以下结合图5说明本发明的融合光流信息和Siamese框架的目标跟踪装置,如图所示,该装置包括:
获取特征模块:用于获取当前帧,当前帧为第N帧,其中N>3,再获取当前帧的前面的三帧,分别是第N-3帧、第N-2帧、第N-1帧,所述第N-3帧、第N-2帧、第N-1帧分别和当前第N帧使用TVNet光流网络来计算光流,得到Flow1、Flow2、Flow3;并对Flow1、Flow2及Flow3进行裁剪(Crop)操作,得到22×22的光流矢量图P1、P2、P3;将当前帧输入特征网络,得到22×22的当前帧特征图FN;将当前帧特征图FN分别与光流矢量图P1、P2、P3结合,再对结合后的结果进行变形(Warp)操作,得到变形后的特征图F1、F2、F3;
权重计算模块:用于将变形后的特征图F1、F2、F3与当前帧特征图FN作为检测帧输入时序打分模型,得到所述候选检测帧的特征权重,并将所述候选检测帧的特征权重与融合了光流特征的候选检测帧按照公式(1)相乘得到最终的检测帧;
i表示当前帧的序号,Ii指当前帧第i帧,Ij指在当前帧Ii前面的某一帧如第j帧,j∈{i-T,...,i-2,i-1},T=3,即当前帧的前面的三帧;是当前帧通过融合其他帧光流信息后得到的最终的检测帧,wj->i表示由时序打分模型计算并输出的候选检测帧的特征权重;fj->i是将第j帧中的运动信息通过光流网络映射到第i帧,然后再将得出的光流结果图与第j帧图像进行变形(Warp)操作;
将第j帧中的运动信息通过光流网络映射到第i帧定义为
fj→i=W(fj,Mi→j)=W(fj,F(Ii,Ij))
其中,F(Ii,Ij)是通过所述光流网络对Ii和Ij进行光流计算,得出的结果实现了将第j帧中的运动信息映射到第i帧;fj是第i帧的特征图,W(,)是对所述光流计算得出的结果与Ij帧融合,对融合后的信息,进行变形(Warp)操作,应用到每个通道特征映射定位的线性形变方程进行变形(Warp)操作;
其中,所述时序打分模型输入为未经打分的各个时段的变形后的特征图F1、F2、F3与当前帧特征图FN,输出为候选检测帧的权重数值;
所述时序打分模型具有池化层,其中的池化层可以执行全局平均池化操作和全局最大值池化操作,通过全局平均池化操作和全局最大值池化,对每个候选检测帧包含物体的信息量进行打分,得到操作后的中间矩阵,
所述全局平均池化操作为:
其中GS-GA(...)表示全局平均池化过程。qT表示T个候选检测帧,qx和qy表示特征图中的像素点,H表示输入特征图的高,W表示输入特征图的宽;
所述全局最大值池化操作为:
GS-GM(qT)=Max(qT(qx,qy))
GS-GM(...)表示全局最大值池化过程;
所述这全局平均池化操作输出一个T×1维的向量,构成全局平均池化中间矩阵,所述全局最大值池化操作也输出一个T×1维的向量,构成全局最大值池化中间矩阵;
将所述全局平均池化中间矩阵和所述全局最大值池化中间矩阵输入共享网络层,对每个候选帧与当前帧的关联性进行打分;通过共享网络层分别得到全局平均池化和最大值池化的权值矩阵,所述共享网络层实现卷积操作,参数由经验值或训练得到;再对两个权值矩阵进行逐元素相加操作,得到权重特征向量;并将得到的权重特征向量作为激活函数Relu的输入,所述激活函数Relu为:
其中,x指输入的所述权重特征向量,α为系数,
所述时序打分模型是由卷积神经网络模型根据损失函数进行训练的。
进一步地,所述时序打分模型是由卷积神经网络模型根据损失函数进行训练的,所述损失函数为:
l(y,v)=log(1+exp(-yv))
其中v表示训练集中等待训练的图像的候选响应图每个点的真实值,y∈{+1,-1}表示标准跟踪框的标签;通过最小化上述损失函数来不断学习、训练,当所述损失函数趋于稳定时,所述时序打分模型训练完毕,得到所述时序打分模型的系数,利用训练好的时序打分模型对候选检测帧的权重数值进行计算,从而得到候选检测帧时序权重。
进一步地,为了更好的提取候选检测帧的图像特征,所述共享网络层中的卷积神经滤波器采用可变形的卷积计算,在传统的卷积操作的作用区域上,加入了一个可学习的参数Δpn。
本发明实施例进一步给出一种融合光流信息和Siamese框架的目标跟踪系统,包括:
处理器,用于执行多条指令;
存储器,用于存储多条指令;
其中,所述多条指令,用于由所述存储器存储,并由所述处理器加载并执行如上所述的融合光流信息和Siamese框架的目标跟踪方法。
本发明实施例进一步给出一种计算机可读存储介质,所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行如上所述的融合光流信息和Siamese框架的目标跟踪方法。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机装置(可以是个人计算机,实体机服务器,或者网络云服务器等,需安装Windows或者Windows Server操作系统)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (8)
1.一种融合光流信息和Siamese框架的目标跟踪方法,其特征在于,所述方法包括:
S101:获取当前帧,当前帧为第N帧,其中N>3,再获取当前帧的前面的三帧,分别是第N-3帧、第N-2帧、第N-1帧,所述第N-3帧、第N-2帧、第N-1帧分别和当前第N帧使用TVNet光流网络来计算光流,得到Flow1、Flow2、Flow3;并对Flow1、Flow2及Flow3进行裁剪(Crop)操作,得到22×22的光流矢量图P1、P2、P3;将当前帧输入特征网络,得到22×22的当前帧特征图FN;将当前帧特征图FN分别与光流矢量图P1、P2、P3结合,再对结合后的结果进行变形(Warp)操作,得到变形后的特征图F1、F2、F3;
S102:将变形后的特征图F1、F2、F3与当前帧特征图FN作为检测帧输入时序打分模型,得到候选检测帧的特征权重,并将所述候选检测帧的特征权重与融合了光流特征的候选检测帧按照公式(1)相乘得到最终的检测帧;
i表示当前帧的序号,Ii指当前帧第i帧,Ij指在当前帧Ii前面的某一帧如第j帧,j∈{i-T,…,i-2,i-1},T=3,即当前帧的前面的三帧;是当前帧通过融合其他帧光流信息后得到的最终的检测帧,wj->i表示由时序打分模型计算并输出的候选检测帧的特征权重;fj->i是将第j帧中的运动信息通过光流网络映射到第i帧,然后再将得出的光流结果图与第j帧图像进行变形(Warp)操作;
将第j帧中的运动信息通过光流网络映射到第i帧定义为
fj→i=W(fj,Mi→j)=W(fj,F(Ii,Ij))
其中,F(Ii,Ij)是通过所述光流网络对Ii和Ij进行光流计算,得出的结果实现了将第j帧中的运动信息映射到第i帧;fj是第i帧的特征图,W(,)是对所述光流计算得出的结果与Ij帧融合,对融合后的信息,进行变形(Warp)操作,应用到每个通道特征映射定位的线性形变方程进行变形(Warp)操作;
其中,所述时序打分模型输入为未经打分的各个时段的变形后的特征图F1、F2、F3与当前帧特征图FN,输出为候选检测帧的权重数值;
所述时序打分模型具有池化层,其中的池化层可以执行全局平均池化操作和全局最大值池化操作,通过全局平均池化操作和全局最大值池化,对每个候选检测帧包含物体的信息量进行打分,得到操作后的中间矩阵,
所述全局平均池化操作为:
其中GS-GA(...)表示全局平均池化过程,qT表示T个候选检测帧,qx和qy表示特征图中的像素点,H表示输入到全局平均池化操作前特征图的高,W表示输入到全局平均池化操作前特征图的宽;
所述全局最大值池化操作为:
GS-GM(qT)=Max(qT(qx,qy))
GS-GM(...)表示全局最大值池化过程;
所述全局平均池化操作输出一个T×1维的向量,构成全局平均池化中间矩阵,所述全局最大值池化操作也输出一个T×1维的向量,构成全局最大值池化中间矩阵;
将所述全局平均池化中间矩阵和所述全局最大值池化中间矩阵输入共享网络层,对每个候选帧与当前帧的关联性进行打分;通过共享网络层分别得到全局平均池化和最大值池化的权值矩阵,所述共享网络层实现卷积操作,参数由经验值或训练得到;再对两个权值矩阵进行逐元素相加操作,得到权重特征向量;并将得到的权重特征向量作为激活函数Relu的输入,所述激活函数Relu为:
其中,x指输入的所述权重特征向量,α为系数,
所述时序打分模型是由卷积神经网络模型根据损失函数进行训练的。
3.如权利要求1所述的融合光流信息和Siamese框架的目标跟踪方法,其特征在于,
为了更好的提取候选检测帧的图像特征,所述共享网络层中的卷积神经滤波器采用可变形的卷积计算,在传统的卷积操作的作用区域上,加入了一个可学习的参数Δpn。
4.一种融合光流信息和Siamese框架的目标跟踪装置,其特征在于,所述装置包括:
获取特征模块:用于获取当前帧,当前帧为第N帧,其中N>3,再获取当前帧的前面的三帧,分别是第N-3帧、第N-2帧、第N-1帧,所述第N-3帧、第N-2帧、第N-1帧分别和当前第N帧使用TVNet光流网络来计算光流,得到Flow1、Flow2、Flow3;并对Flow1、Flow2及Flow3进行裁剪(Crop)操作,得到22×22的光流矢量图P1、P2、P3;将当前帧输入特征网络,得到22×22的当前帧特征图FN;将当前帧特征图FN分别与光流矢量图P1、P2、P3结合,再对结合后的结果进行变形(Warp)操作,得到变形后的特征图F1、F2、F3;
权重计算模块:用于将变形后的特征图F1、F2、F3与当前帧特征图FN作为检测帧输入时序打分模型,得到候选检测帧的特征权重,并将所述候选检测帧的特征权重与融合了光流特征的候选检测帧按照公式(1)相乘得到最终的检测帧;
i表示当前帧的序号,Ii指当前帧第i帧,Ij指在当前帧Ii前面的某一帧如第j帧,j∈{i-T,…,i-2,i-1},T=3,即当前帧的前面的三帧;是当前帧通过融合其他帧光流信息后得到的最终的检测帧,wj->i表示由时序打分模型计算并输出的候选检测帧的特征权重;fj->i是将第j帧中的运动信息通过光流网络映射到第i帧,然后再将得出的光流结果图与第j帧图像进行变形(Warp)操作;
将第j帧中的运动信息通过光流网络映射到第i帧定义为
fj→i=W(fj,Mi→j)=W(fj,F(Ii,Ij))
其中,F(Ii,Ij)是通过所述光流网络对Ii和Ij进行光流计算,得出的结果实现了将第j帧中的运动信息映射到第i帧;fj是第i帧的特征图,W(,)是对所述光流计算得出的结果与Ij帧融合,对融合后的信息,进行变形(Warp)操作,应用到每个通道特征映射定位的线性形变方程进行变形(Warp)操作;
其中,所述时序打分模型输入为未经打分的各个时段的变形后的特征图F1、F2、F3与当前帧特征图FN,输出为候选检测帧的权重数值;
所述时序打分模型具有池化层,其中的池化层可以执行全局平均池化操作和全局最大值池化操作,通过全局平均池化操作和全局最大值池化,对每个候选检测帧包含物体的信息量进行打分,得到操作后的中间矩阵,
所述全局平均池化操作为:
其中GS-GA(...)表示全局平均池化过程,qT表示T个候选检测帧,qx和qy表示特征图中的像素点,H表示输入到全局平均池化操作前特征图的高,W表示输入到全局平均池化操作前特征图的宽;
所述全局最大值池化操作为:
GS-GM(qT)=Max(qT(qx,qy))
GS-GM(...)表示全局最大值池化过程;
所述全局平均池化操作输出一个T×1维的向量,构成全局平均池化中间矩阵,所述全局最大值池化操作也输出一个T×1维的向量,构成全局最大值池化中间矩阵;
将所述全局平均池化中间矩阵和所述全局最大值池化中间矩阵输入共享网络层,对每个候选帧与当前帧的关联性进行打分;通过共享网络层分别得到全局平均池化和最大值池化的权值矩阵,所述共享网络层实现卷积操作,参数由经验值或训练得到;再对两个权值矩阵进行逐元素相加操作,得到权重特征向量;并将得到的权重特征向量作为激活函数Relu的输入,所述激活函数Relu为:
其中,x指输入的所述权重特征向量,α为系数,
所述时序打分模型是由卷积神经网络模型根据损失函数进行训练的。
6.如权利要求4所述的融合光流信息和Siamese框架的目标跟踪装置,其特征在于,
为了更好的提取候选检测帧的图像特征,所述共享网络层中的卷积神经滤波器采用可变形的卷积计算,在传统的卷积操作的作用区域上,加入了一个可学习的参数Δpn。
7.一种融合光流信息和Siamese框架的目标跟踪系统,其特征在于,包括:
处理器,用于执行多条指令;
存储器,用于存储多条指令;
其中,所述多条指令,用于由所述存储器存储,并由所述处理器加载并执行如权利要求1-3任一所述的融合光流信息和Siamese框架的目标跟踪方法。
8.一种计算机可读存储介质,其特征在于,所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行如权利要求1-3任一所述的融合光流信息和Siamese框架的目标跟踪方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910783618.2A CN110619655B (zh) | 2019-08-23 | 2019-08-23 | 一种融合光流信息和Siamese框架的目标跟踪方法及装置 |
PCT/CN2019/105275 WO2021035807A1 (zh) | 2019-08-23 | 2019-09-11 | 一种融合光流信息和Siamese框架的目标跟踪方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910783618.2A CN110619655B (zh) | 2019-08-23 | 2019-08-23 | 一种融合光流信息和Siamese框架的目标跟踪方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110619655A CN110619655A (zh) | 2019-12-27 |
CN110619655B true CN110619655B (zh) | 2022-03-29 |
Family
ID=68922462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910783618.2A Active CN110619655B (zh) | 2019-08-23 | 2019-08-23 | 一种融合光流信息和Siamese框架的目标跟踪方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110619655B (zh) |
WO (1) | WO2021035807A1 (zh) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110595466B (zh) * | 2019-09-18 | 2020-11-03 | 电子科技大学 | 轻量级的基于深度学习的惯性辅助视觉里程计实现方法 |
CN111127532B (zh) * | 2019-12-31 | 2020-12-22 | 成都信息工程大学 | 基于深度学习特征光流的医学图像形变配准方法及系统 |
CN111640136B (zh) * | 2020-05-23 | 2022-02-25 | 西北工业大学 | 一种复杂环境中的深度目标跟踪方法 |
CN111814604B (zh) * | 2020-06-23 | 2024-08-27 | 浙江理工大学 | 一种基于孪生神经网络的行人跟踪方法 |
CN111915573A (zh) * | 2020-07-14 | 2020-11-10 | 武汉楚精灵医疗科技有限公司 | 一种基于时序特征学习的消化内镜下病灶跟踪方法 |
CN112085767B (zh) * | 2020-08-28 | 2023-04-18 | 安徽清新互联信息科技有限公司 | 一种基于深度光流跟踪的客流统计方法及系统 |
CN112215079B (zh) * | 2020-09-16 | 2022-03-15 | 电子科技大学 | 一种全局多阶段目标跟踪方法 |
CN112561969B (zh) * | 2020-12-25 | 2023-07-25 | 哈尔滨工业大学(深圳) | 基于无监督光流网络的移动机器人红外目标跟踪方法及系统 |
CN113269699B (zh) * | 2021-04-22 | 2023-01-03 | 天津(滨海)人工智能军民融合创新中心 | 基于异步事件流与灰度图像融合的光流估计方法与系统 |
CN113362371A (zh) * | 2021-05-18 | 2021-09-07 | 北京迈格威科技有限公司 | 目标跟踪方法及装置、电子设备、存储介质 |
CN113628696B (zh) * | 2021-07-19 | 2023-10-31 | 武汉大学 | 基于双图卷积融合模型的药物连接图分数预测方法及装置 |
CN113569757B (zh) * | 2021-07-29 | 2024-04-05 | 西安交通大学 | 一种时序动作定位方法、系统、终端设备及可读存储介质 |
CN113793359B (zh) * | 2021-08-25 | 2024-04-05 | 西安工业大学 | 一种融合孪生网络与相关滤波的目标跟踪方法 |
CN113723279B (zh) * | 2021-08-30 | 2022-11-01 | 东南大学 | 边缘计算环境中基于时空间优化的多目标跟踪加速方法 |
CN113744314B (zh) * | 2021-09-06 | 2023-09-22 | 郑州海威光电科技有限公司 | 一种基于目标-干扰感知的目标跟踪方法 |
CN113792633B (zh) * | 2021-09-06 | 2023-12-22 | 北京工商大学 | 一种基于神经网络和光流法的人脸追踪系统和追踪方法 |
CN113762149A (zh) * | 2021-09-07 | 2021-12-07 | 江南大学 | 基于分割注意力的特征融合人体行为识别系统及方法 |
CN113920159B (zh) * | 2021-09-15 | 2024-05-10 | 河南科技大学 | 一种基于全卷积孪生网络的红外空中小目标跟踪方法 |
CN113936034B (zh) * | 2021-09-28 | 2024-05-28 | 北京航空航天大学 | 一种结合帧间光流的表观运动联合弱小运动目标检测方法 |
CN114022759B (zh) * | 2021-09-30 | 2024-07-12 | 北京临近空间飞行器系统工程研究所 | 一种融合神经网络时空特性的空域有限像素目标检测系统及方法 |
CN114022818B (zh) * | 2021-11-04 | 2024-07-16 | 广州市云景信息科技有限公司 | 一种基于霍夫变换和双流卷积神经网络的马路黑烟识别方法 |
CN114339030B (zh) * | 2021-11-29 | 2024-04-02 | 北京工业大学 | 一种基于自适应可分离卷积的网络直播视频稳像方法 |
CN114358055A (zh) * | 2021-12-16 | 2022-04-15 | 中国人民解放军战略支援部队信息工程大学 | 基于深度学习的无线通信信号规格识别方法及系统 |
CN114299308B (zh) * | 2021-12-20 | 2024-09-06 | 中用科技有限公司 | 一种损毁道路护栏智能检测系统与方法 |
CN114220061B (zh) * | 2021-12-28 | 2024-04-23 | 青岛科技大学 | 一种基于深度学习的多目标跟踪方法 |
CN114419102B (zh) * | 2022-01-25 | 2023-06-06 | 江南大学 | 一种基于帧差时序运动信息的多目标跟踪检测方法 |
CN114494349B (zh) * | 2022-01-27 | 2024-07-26 | 上海交通大学 | 基于目标特征时空对齐的视频跟踪系统及方法 |
CN114581479B (zh) * | 2022-03-17 | 2024-09-24 | 湖南大学 | 一种基于孪生网络单目标图像跟踪器的模板更新方法 |
CN114821431A (zh) * | 2022-05-05 | 2022-07-29 | 南京大学 | 一种隧道内实时多类别多目标跟踪方法 |
CN114973073B (zh) * | 2022-05-13 | 2024-10-18 | 中南大学 | 一种动态颗粒材料数值信息的测量方法及实验装置 |
CN115222771B (zh) * | 2022-07-05 | 2023-07-21 | 北京建筑大学 | 一种目标跟踪方法及装置 |
CN115273908B (zh) * | 2022-08-05 | 2023-05-12 | 东北农业大学 | 一种基于分类器融合的生猪咳嗽声音识别方法 |
CN115953740B (zh) * | 2023-03-14 | 2023-06-02 | 深圳市睿创科数码有限公司 | 一种基于云端的安防控制方法和系统 |
CN116486107B (zh) * | 2023-06-21 | 2023-09-05 | 南昌航空大学 | 一种光流计算方法、系统、设备及介质 |
CN116636423B (zh) * | 2023-07-26 | 2023-09-26 | 云南农业大学 | 一种茯苓菌种的高效培育方法 |
CN116647946B (zh) * | 2023-07-27 | 2023-10-13 | 济宁九德半导体科技有限公司 | 基于半导体的加热控制系统及其方法 |
CN116703980B (zh) * | 2023-08-04 | 2023-10-24 | 南昌工程学院 | 基于金字塔池化Transformer主干网络的目标跟踪方法与系统 |
CN117011343B (zh) * | 2023-08-09 | 2024-04-05 | 北京航空航天大学 | 一种面向拥挤场景的光流引导多目标跟踪方法 |
CN117252904B (zh) * | 2023-11-15 | 2024-02-09 | 南昌工程学院 | 基于长程空间感知与通道增强的目标跟踪方法与系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711316A (zh) * | 2018-12-21 | 2019-05-03 | 广东工业大学 | 一种行人重识别方法、装置、设备及存储介质 |
CN109767456A (zh) * | 2019-01-09 | 2019-05-17 | 上海大学 | 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法 |
CN109993095A (zh) * | 2019-03-26 | 2019-07-09 | 东北大学 | 一种面向视频目标检测的帧级别特征聚合方法 |
CN110111366A (zh) * | 2019-05-06 | 2019-08-09 | 北京理工大学 | 一种基于多级损失量的端到端光流估计方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101673404B (zh) * | 2009-10-19 | 2015-03-04 | 北京中星微电子有限公司 | 一种目标检测的方法和装置 |
CN107038713A (zh) * | 2017-04-12 | 2017-08-11 | 南京航空航天大学 | 一种融合光流法和神经网络的运动目标捕捉方法 |
CN109460707A (zh) * | 2018-10-08 | 2019-03-12 | 华南理工大学 | 一种基于深度神经网络的多模态动作识别方法 |
-
2019
- 2019-08-23 CN CN201910783618.2A patent/CN110619655B/zh active Active
- 2019-09-11 WO PCT/CN2019/105275 patent/WO2021035807A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711316A (zh) * | 2018-12-21 | 2019-05-03 | 广东工业大学 | 一种行人重识别方法、装置、设备及存储介质 |
CN109767456A (zh) * | 2019-01-09 | 2019-05-17 | 上海大学 | 一种基于SiameseFC框架和PFP神经网络的目标跟踪方法 |
CN109993095A (zh) * | 2019-03-26 | 2019-07-09 | 东北大学 | 一种面向视频目标检测的帧级别特征聚合方法 |
CN110111366A (zh) * | 2019-05-06 | 2019-08-09 | 北京理工大学 | 一种基于多级损失量的端到端光流估计方法 |
Non-Patent Citations (2)
Title |
---|
Fully Convolutional Siamese Fusion Networks for Object Tracking;Miaobin Cen et al;《ICIP 2018》;20181231;第3718-3722页 * |
基于Tiny Darknet全卷积孪生网络的目标跟踪;史璐璐 等;《南京邮电大学(自然科学版)》;20180831;第38卷(第4期);第89-95页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110619655A (zh) | 2019-12-27 |
WO2021035807A1 (zh) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110619655B (zh) | 一种融合光流信息和Siamese框架的目标跟踪方法及装置 | |
CN110378381B (zh) | 物体检测方法、装置和计算机存储介质 | |
JP6929953B2 (ja) | 部屋レイアウト推定方法および技法 | |
WO2021043168A1 (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
CN111667399B (zh) | 风格迁移模型的训练方法、视频风格迁移的方法以及装置 | |
CN108416266B (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
CN109325589B (zh) | 卷积计算方法及装置 | |
CN112750148B (zh) | 一种基于孪生网络的多尺度目标感知跟踪方法 | |
CN112639828A (zh) | 数据处理的方法、训练神经网络模型的方法及设备 | |
CN111882031A (zh) | 一种神经网络蒸馏方法及装置 | |
CN110136162B (zh) | 无人机视角遥感目标跟踪方法及装置 | |
CN112766062B (zh) | 一种基于双流深度神经网络的人体行为识别方法 | |
CN110222718A (zh) | 图像处理的方法及装置 | |
CN112232134A (zh) | 一种基于沙漏网络结合注意力机制的人体姿态估计方法 | |
CN113673545A (zh) | 光流估计方法、相关装置、设备及计算机可读存储介质 | |
CN111310609A (zh) | 基于时序信息和局部特征相似性的视频目标检测方法 | |
US20220215617A1 (en) | Viewpoint image processing method and related device | |
CN117542045B (zh) | 一种基于空间引导自注意力的食品识别方法及系统 | |
CN113554656B (zh) | 基于图神经网络的光学遥感图像实例分割方法及装置 | |
CN114492634A (zh) | 一种细粒度装备图片分类识别方法及系统 | |
CN116888605A (zh) | 神经网络模型的运算方法、训练方法及装置 | |
CN116091871B (zh) | 一种针对目标检测模型的物理对抗样本生成方法及装置 | |
CN106845550B (zh) | 一种基于多模板的图像识别方法 | |
CN115641490A (zh) | 一种数据处理方法及其装置 | |
CN109492530A (zh) | 基于深度多尺度时空特征的健壮性视觉物体跟踪算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |