CN112232150A - 一种基于生成对抗的目标跟踪方法 - Google Patents
一种基于生成对抗的目标跟踪方法 Download PDFInfo
- Publication number
- CN112232150A CN112232150A CN202011045916.0A CN202011045916A CN112232150A CN 112232150 A CN112232150 A CN 112232150A CN 202011045916 A CN202011045916 A CN 202011045916A CN 112232150 A CN112232150 A CN 112232150A
- Authority
- CN
- China
- Prior art keywords
- network
- target
- tracking
- training
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于生成对抗的目标跟踪方法,包括如下步骤:步骤1:搭建基于生成对抗的目标跟踪网络;特征提取网络用于提取输入图像的深度特征,然后将提取出的图像特征矩阵输入二分类网络;同时,将上一帧计算出的目标坐标作为当前帧目标特征矩阵所在位置,将目标特征矩阵输入掩膜生成网络;步骤2:基于锚点生成掩膜来修改图像;步骤3:训练基于尺度自适应对抗式训练的目标跟踪网络;步骤4:实施目标跟踪;该方法可以有效提高目标跟踪的准确性和鲁棒性。
Description
技术领域
本发明涉及计算机视觉的图像处理领域,尤其涉及一种基于生成对抗的目标跟踪方法。
背景技术
现代目标跟踪(Object Tracking)算法分为两类。一类基于相关滤波(CorrelationFilter),该目标跟踪算法利用循环相关的属性并在傅立叶域中执行运算来训练回归器,它可以进行在线跟踪并同时有效地更新过滤器的权重。另一类基于强大的深度学习网络(Deep Learning Network),第一阶段绘制目标对象周围的稀疏样本集,第二阶段使用卷积神经网络将每个样本分类为目标对象或背景。
这些基于深度学习的目标跟踪算法在跟踪基准上具有良好的表现,但它们的效率在跟踪框架的第一阶段受到了限制。原始图像中的样本通常作为深度卷积网络的输入,并且每个原始图像样本都需要由深度神经网络进行学习和推理,这会导致较高的计算负担和较低的运行速度。而随机进行采样得到的样本中存在大量的易分样本和少量的难分样本,这会导致训练时网络参数越来越拟合于跟踪易分样本,而跟踪算法的丢失几乎全部出现在跟踪难分样本时。所以在目标跟踪第一阶段提供更多高质量的正样本,从而提高深度学习目标跟踪算法的学习效率非常重要。
早期的正样本增强主要采用以下技术。使用上采样技术和下采样技术,解决易分样本与难分样本分布不均的问题;随机选择图像的某个区域,将该区域所有像素值变为马赛克,来提高难分样本的数量;将图像旋转90度、180度、270度,或将图像水平翻转、竖直翻转,来增加样本的数量。
2018年,SINT++目标跟踪算法将生成对抗网络(Generative AdversarialNetwork)加入目标跟踪算法中。该方法利用生成网络编码目标图像的高维流形(High-dimensional manifold topology)特征,来生成与目标图像特征相似的图片,同时用判别器来使生成图像与真实图像特征相似。这种方法可以生成大量与目标特征相似的正样本图像,为目标跟踪网络的训练提供了大量的正样本,提高了网络的跟踪效果。
在目标跟踪网络的跟踪过程中,更多的正样本可以提高它的跟踪效果,但同时也会降低它的运行速度。利用生成对抗网络,可以约束正样本生成过程中的随机性,提高生成的正样本的质量。因此需要基于生成对抗网络,研究生成高质量正样本的方法,使目标跟踪网络在正样本较少的条件下达到更佳的跟踪效果。
发明内容
本发明的目的在于提出一种基于生成对抗的目标跟踪方法,适合对部分图像特征缺失、变化的目标进行稳定的跟踪。针对目标跟踪算法训练过程中目标样本尺度变化,缺少难分样本等问题,结合生成对抗网络,使用基于锚点的掩膜生成方法对图像进行特征更改,进而提高跟踪器对目标的非鲁棒特征的学习能力,提高跟踪器的跟踪准确度,具有跟踪精度高、鲁棒性强等优点。
本发明采用如下技术方案:
一种基于生成对抗的目标跟踪方法,包括如下步骤:
步骤1:搭建基于生成对抗的目标跟踪网络;
步骤2:基于锚点生成掩膜来修改图像;
步骤3:训练基于尺度自适应对抗式训练的目标跟踪网络;
步骤4:实施目标跟踪;
在所述目标跟踪网络的搭建引入掩膜生成网络过程:
特征提取网络用于提取输入图像的深度特征,然后将提取出的图像特征矩阵输入二分类网络;同时,将上一帧计算出的目标坐标作为当前帧目标特征矩阵所在位置,将目标特征矩阵输入掩膜生成网络;
所述掩膜生成网络将输出一个被改变的目标特征矩阵,用被改变的目标特征矩阵替代图像特征矩阵中之前的目标矩阵部分,然后将新的图像特征矩阵输入二分类网络。
所述二分类网络用于计算出目标坐标,该网络首先根据前一帧的跟踪框坐标,在以该框为中心的一定范围内生成大量的样本框,然后根据每个样本框中的图像特征矩阵,计算出每个框的分类概率,将分类概率最高的样本框作为目标的位置并输出。
所述步骤3中训练基于尺度自适应对抗式训练的目标跟踪网络步骤如下:
S1、构建数据集,将数据集划分为训练集和测试集;
S2、初始化目标跟踪网络:不引入掩膜生成网络,直接将特征提取网络与二分类网络相连组成目标跟踪网络,利用训练集和分类损失函数训练网络,训练至f1次迭代以上且分类损失函数值在p次迭代内最大值与最小值相差小于h。
S3、训练掩膜生成网络:在上一步得到的网络中引入掩膜生成网络,固定目标跟踪网络中的参数,将基于锚点生成掩膜修改的9张图像输入二分类网络进行推理,然后选择输出的概率最低的有掩膜图像作为标签M;利用训练集和生成损失函数训练掩膜生成网络,训练至f2次迭代以上且生成损失函数值在p次迭代内最大值与最小值相差小于h;
S4、训练基于生成对抗的目标跟踪网络:固定掩膜生成网络的参数,并使用掩膜生成网络修改目标特征矩阵;用修改后的图像特征矩阵和对抗损失函数训练基于生成对抗的目标跟踪网络中,训练至f3次迭代以上且对抗损失函数值在p次迭代内最大值与最小值相差小于h;
S5.重复S1步到S4步,训练多个基于生成对抗的目标跟踪网络,用测试集比较网络输出的坐标与真实坐标间的平均欧式距离,选择平均欧式距离最低的网络实施目标跟踪。
所述步骤4中实施目标跟踪过程:
S1、将第一帧的跟踪图像和目标位置标签输入跟踪网络,利用分类损失函数更新二分类网络的全连接层;
S2、利用掩膜生成网络生成大量目标特征矩阵被修改的图像,利用修改过的图像和分类损失函数更新二分类网络的全连接层,迭代50次。
S3、然后输入需要跟踪的后续图像到目标跟踪网络,跟踪网络将输出目标的坐标,以此对目标物体进行准确、鲁棒的跟踪定位。
所述目标跟踪网络共设置损失函数3个损失函数,分别为:分类损失函数、生成损失函数和对抗损失函数;其中:分类损失函数用于训练二分类网络,生成损失函数和对抗损失函数用于训练掩膜生成网络;
所述生成损失函数被定义为:
LG=D(G(C)·C)·log(1-D(G(C)·C))+λ||G(C)-M||2
所述对抗损失函数被定义为:
LD=-logD(M·C)-D(G(C)·C)·log(1-D(G(C)·C))
其中,G为掩膜生成网络,D为只包含特征提取网络和二分类网络的目标跟踪网络;G(C)为掩膜生成网络生成的掩膜矩阵,G(C)·C为被掩膜生成网络修改的目标特征矩阵;D(M·C)为跟踪网络对被锚点生成的掩膜矩阵修改的目标特征矩阵推理得到的概率,D(G(C)·C)为跟踪网络对被掩膜生成网络修改的目标特征矩阵推理得到的概率;M为基于锚点生成的掩膜矩阵,M·C为被锚点掩膜修改的目标特征矩阵,||G(C)-M||为两个掩膜矩阵间的欧氏距离。
所述掩膜生成网络由反卷积层、卷积层和全连接层组成,所述掩膜生成网络是通过输入图像特征矩阵中的目标特征矩阵生成一个代表权重的矩阵,用于改变目标特征矩阵的一部分特征值。
有益效果
利用本发明提出的了一种基于生成对抗的目标跟踪方法,引入生成对抗网络、基于锚点的掩膜生成方法,对训练图像中的正样本进行增强,提高跟踪器对目标的非鲁棒特征的跟踪能力。该方法可以有效提高目标跟踪的准确性和鲁棒性。
附图说明
图1掩膜生成网络计算过程图;
图2基于生成对抗的目标跟踪网络计算过程图;
具体实施方式
如图1所示,基于生成对抗的目标跟踪方法流程如下:
步骤1:搭建基于生成对抗的目标跟踪网络。目标跟踪网络的搭建由3个步骤构成:
1.建立掩膜生成网络
掩膜生成网络由反卷积层、卷积层和全连接层组成,其计算过程如图1所示。将输入图像特征矩阵中的目标特征矩阵输入掩膜生成网络,掩膜生成网络将生成一个代表权重的矩阵,用于改变目标特征矩阵的一部分特征值。最后,掩膜生成网络将输出一个改变的目标特征矩阵。
图中,输入的图像特征矩阵大小为n×n,连续使用3个步长为1的3×3反卷积核进行反卷积操作,得到(n+6)×(n+6)的矩阵,然后连续使用3个步长为1的3×3卷积核进行卷积操作,得到n×n的矩阵。将n×n的矩阵与输入的图像特征矩阵相乘,得到输出的n×n图像特征矩阵
2.在一般的目标跟踪网络中引入掩膜生成网络,整个网络的计算过程如图2所示。
特征提取网络用于提取输入图像的深度特征,可直接使用VGG等分类网络的卷积层部分作为特征提取网络。然后将提取出的图像特征矩阵输入二分类网络。同时,将上一帧计算出的目标坐标作为当前帧目标特征矩阵所在位置,将目标特征矩阵输入掩膜生成网络。
掩膜生成网络将输出一个被改变的目标特征矩阵。用被改变的目标特征矩阵替代图像特征矩阵中之前的目标矩阵部分,然后将新的图像特征矩阵输入二分类网络。
二分类网络用于计算出目标坐标。该网络首先根据前一帧的跟踪框坐标,在以该框为中心的一定范围内生成大量的样本框,然后根据每个样本框中的图像特征矩阵,计算出每个框的分类概率,将分类概率最高的样本框作为目标的位置并输出。
3.设置损失函数。基于生成对抗的目标跟踪网络共有3个损失函数,其中分类损失函数用于训练二分类网络,生成损失函数和对抗损失函数用于训练掩膜生成网络。
可采用常用于分类网络的损失函数作为分类损失函数训练二分类网络,如交叉熵损失函数、焦点损失函数等。
生成损失函数被定义为:
LG=D(G(C)·C)·log(1-D(G(C)·C))+λ||G(C)-M||2
对抗损失函数被定义为:
LD=-logD(M·C)-D(G(C)·C)·log(1-D(G(C)·C))
其中,G为掩膜生成网络,D为只包含特征提取网络和二分类网络的目标跟踪网络。G(C)为掩膜生成网络生成的掩膜矩阵,G(C)·C为被掩膜生成网络修改的目标特征矩阵。D(M·C)为跟踪网络对被锚点生成的掩膜矩阵修改的目标特征矩阵推理得到的概率,D(G(C)·C)为跟踪网络对被掩膜生成网络修改的目标特征矩阵推理得到的概率。M为基于锚点生成的掩膜矩阵,M·C为被锚点掩膜修改的目标特征矩阵,||G(C)-M||为两个掩膜矩阵间的欧氏距离。
步骤2:基于锚点生成掩膜来修改图像。用基于锚点的掩膜生成方式生成有掩膜的图像。设目标特征矩阵左上角位置为(x,y),长、宽分别为a、b,目标特征矩阵右下角位置为(x+a,y+b)。
以每个锚点为中心分别生成1个长宽为m、n的掩膜,其中
然后,将目标特征矩阵复制为9个,在每个目标特征矩阵中选择某1个掩膜区域的矩阵置零,共生成9种修改过的目标特征矩阵。
步骤3:训练基于尺度自适应对抗式训练的目标跟踪网络,网络利用随机梯度下降法进行训练。网络的训练步骤如下:
1.构建数据集,将数据集划分为训练集和测试集。
2.初始化目标跟踪网络。不引入掩膜生成网络,直接将特征提取网络与二分类网络相连组成目标跟踪网络,利用训练集和分类损失函数训练网络,训练至f1次迭代以上且分类损失函数值在p次迭代内最大值与最小值相差小于h。
3.训练掩膜生成网络。在上一步得到的网络中引入掩膜生成网络,固定目标跟踪网络中的参数,将基于锚点生成掩膜修改的9张图像输入二分类网络进行推理,然后选择输出的概率最低的有掩膜图像作为标签M。利用训练集和生成损失函数训练掩膜生成网络,训练至f2次迭代以上且生成损失函数值在p次迭代内最大值与最小值相差小于h。
4.训练基于生成对抗的目标跟踪网络。固定掩膜生成网络的参数,并使用掩膜生成网络修改目标特征矩阵。用修改后的图像特征矩阵和对抗损失函数训练基于生成对抗的目标跟踪网络中,训练至f3次迭代以上且对抗损失函数值在p次迭代内最大值与最小值相差小于h。
5.重复第1步到第4步,训练多个基于生成对抗的目标跟踪网络,用测试集比较网络输出的坐标与真实坐标间的平均欧式距离,选择平均欧式距离最低的网络实施目标跟踪。
步骤4:实施目标跟踪。首先将第一帧的跟踪图像和目标位置标签输入跟踪网络,利用分类损失函数更新二分类网络的全连接层。然后利用掩膜生成网络生成大量目标特征矩阵被修改的图像,利用修改过的图像和分类损失函数更新二分类网络的全连接层,迭代50次。然后输入需要跟踪的后续图像到目标跟踪网络,跟踪网络将输出目标的坐标,以此对目标物体进行准确、鲁棒的跟踪定位。
通过以上4步,便可利用本发明实现准确、鲁棒的目标跟踪定位。
步骤1的第2步:选择VGG-16网络作为主要网络结构,其中特征提取网络采用VGG-16网络的前8层,二分类网络采用VGG-16网络的后11层;权重使用浮点数格式代替二值格式以使包含更多细节。
步骤3的第2步:目标跟踪网络的训练中,初始学习率为0.001,权重衰减为0.0005,批量大小为64,迭代f1=10000次后将学习率改为0.0001,训练至分类损失函数值在p=50次迭代内最大值与最小值相差小于h=1%。
步骤3的第3步:掩膜生成网络的训练中,初始学习率为0.001,权重衰减为0.0005,批量大小为128,迭代f2=50000次后将学习率改为0.0001,训练至生成损失函数值在p=50次迭代内最大值与最小值相差小于h=1%。
步骤3的第4步:基于生成对抗的目标跟踪网络的训练中,初始学习率为0.001,权重衰减为0.0005,批量大小为64,迭代f3=10000次后将学习率改为0.0001,训练至对抗损失函数值在p=50次迭代内最大值与最小值相差小于h=1%。
Claims (5)
1.一种基于生成对抗的目标跟踪方法,包括如下步骤:
步骤1:搭建基于生成对抗的目标跟踪网络;
步骤2:基于锚点生成掩膜来修改图像;
步骤3:训练基于尺度自适应对抗式训练的目标跟踪网络;
步骤4:实施目标跟踪;
其特征在于,在所述目标跟踪网络的搭建引入掩膜生成网络过程:
特征提取网络用于提取输入图像的深度特征,然后将提取出的图像特征矩阵输入二分类网络;同时,将上一帧计算出的目标坐标作为当前帧目标特征矩阵所在位置,将目标特征矩阵输入掩膜生成网络;
所述掩膜生成网络将输出一个被改变的目标特征矩阵,用被改变的目标特征矩阵替代图像特征矩阵中之前的目标矩阵部分,然后将新的图像特征矩阵输入二分类网络。
所述二分类网络用于计算出目标坐标,该网络首先根据前一帧的跟踪框坐标,在以该框为中心的一定范围内生成大量的样本框,然后根据每个样本框中的图像特征矩阵,计算出每个框的分类概率,将分类概率最高的样本框作为目标的位置并输出。
2.根据权利要求1所述的一种基于生成对抗的目标跟踪方法,其特征在于,所述步骤3中训练基于尺度自适应对抗式训练的目标跟踪网络步骤如下:
S1、构建数据集,将数据集划分为训练集和测试集;
S2、初始化目标跟踪网络:不引入掩膜生成网络,直接将特征提取网络与二分类网络相连组成目标跟踪网络,利用训练集和分类损失函数训练网络,训练至f1次迭代以上且分类损失函数值在p次迭代内最大值与最小值相差小于h。
S3、训练掩膜生成网络:在上一步得到的网络中引入掩膜生成网络,固定目标跟踪网络中的参数,将基于锚点生成掩膜修改的9张图像输入二分类网络进行推理,然后选择输出的概率最低的有掩膜图像作为标签M;利用训练集和生成损失函数训练掩膜生成网络,训练至f2次迭代以上且生成损失函数值在p次迭代内最大值与最小值相差小于h;
S4、训练基于生成对抗的目标跟踪网络:固定掩膜生成网络的参数,并使用掩膜生成网络修改目标特征矩阵;用修改后的图像特征矩阵和对抗损失函数训练基于生成对抗的目标跟踪网络中,训练至f3次迭代以上且对抗损失函数值在p次迭代内最大值与最小值相差小于h;
S5.重复S1步到S4步,训练多个基于生成对抗的目标跟踪网络,用测试集比较网络输出的坐标与真实坐标间的平均欧式距离,选择平均欧式距离最低的网络实施目标跟踪。
3.根据权利要求1所述的一种基于生成对抗的目标跟踪方法,其特征在于,所述步骤4中实施目标跟踪过程:
S1、将第一帧的跟踪图像和目标位置标签输入跟踪网络,利用分类损失函数更新二分类网络的全连接层;
S2、利用掩膜生成网络生成大量目标特征矩阵被修改的图像,利用修改过的图像和分类损失函数更新二分类网络的全连接层,迭代50次。
S3、然后输入需要跟踪的后续图像到目标跟踪网络,跟踪网络将输出目标的坐标,以此对目标物体进行准确、鲁棒的跟踪定位。
4.根据权利要求1所述的一种基于生成对抗的目标跟踪方法,其特征在于,所述目标跟踪网络共设置损失函数3个损失函数,分别为:分类损失函数、生成损失函数和对抗损失函数;其中:分类损失函数用于训练二分类网络,生成损失函数和对抗损失函数用于训练掩膜生成网络;
所述生成损失函数被定义为:
LG=D(G(C)·C)·log(1-D(G(C)·C))+λ||G(C)-M||2
所述对抗损失函数被定义为:
LD=-logD(M·C)-D(G(C)·C)·log(1-D(G(C)·C))
其中,G为掩膜生成网络,D为只包含特征提取网络和二分类网络的目标跟踪网络;G(C)为掩膜生成网络生成的掩膜矩阵,G(C)·C为被掩膜生成网络修改的目标特征矩阵;D(M·C)为跟踪网络对被锚点生成的掩膜矩阵修改的目标特征矩阵推理得到的概率,D(G(C)·C)为跟踪网络对被掩膜生成网络修改的目标特征矩阵推理得到的概率;M为基于锚点生成的掩膜矩阵,M·C为被锚点掩膜修改的目标特征矩阵,||G(C)-M||为两个掩膜矩阵间的欧氏距离。
5.根据权利要求1-4任一项所述的一种基于生成对抗的目标跟踪方法,其特征在于,所述掩膜生成网络由反卷积层、卷积层和全连接层组成,所述掩膜生成网络是通过输入图像特征矩阵中的目标特征矩阵生成一个代表权重的矩阵,用于改变目标特征矩阵的一部分特征值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011045916.0A CN112232150A (zh) | 2020-09-29 | 2020-09-29 | 一种基于生成对抗的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011045916.0A CN112232150A (zh) | 2020-09-29 | 2020-09-29 | 一种基于生成对抗的目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112232150A true CN112232150A (zh) | 2021-01-15 |
Family
ID=74120374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011045916.0A Pending CN112232150A (zh) | 2020-09-29 | 2020-09-29 | 一种基于生成对抗的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112232150A (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108682022A (zh) * | 2018-04-25 | 2018-10-19 | 清华大学 | 基于对抗迁移网络的视觉跟踪方法及系统 |
CN110210551A (zh) * | 2019-05-28 | 2019-09-06 | 北京工业大学 | 一种基于自适应主体敏感的视觉目标跟踪方法 |
CN111192293A (zh) * | 2019-12-27 | 2020-05-22 | 深圳市越疆科技有限公司 | 一种运动目标位姿跟踪方法及装置 |
-
2020
- 2020-09-29 CN CN202011045916.0A patent/CN112232150A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108682022A (zh) * | 2018-04-25 | 2018-10-19 | 清华大学 | 基于对抗迁移网络的视觉跟踪方法及系统 |
CN110210551A (zh) * | 2019-05-28 | 2019-09-06 | 北京工业大学 | 一种基于自适应主体敏感的视觉目标跟踪方法 |
CN111192293A (zh) * | 2019-12-27 | 2020-05-22 | 深圳市越疆科技有限公司 | 一种运动目标位姿跟踪方法及装置 |
Non-Patent Citations (1)
Title |
---|
YIBING SONG等: "VITAL: VIsual Tracking via Adversarial Learning", 《IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110335290B (zh) | 基于注意力机制的孪生候选区域生成网络目标跟踪方法 | |
CN110210551B (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN110110624B (zh) | 一种基于DenseNet网络与帧差法特征输入的人体行为识别方法 | |
CN108416266B (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
CN110991299A (zh) | 一种物理域上针对人脸识别系统的对抗样本生成方法 | |
CN110097609B (zh) | 一种基于样本域的精细化绣花纹理迁移方法 | |
CN112365514A (zh) | 基于改进PSPNet的语义分割方法 | |
CN112766062B (zh) | 一种基于双流深度神经网络的人体行为识别方法 | |
CN112070768A (zh) | 基于Anchor-Free的实时实例分割方法 | |
Yuan et al. | Neighborloss: a loss function considering spatial correlation for semantic segmentation of remote sensing image | |
CN112836748A (zh) | 一种基于crnn-ctc的铸件标识字符识别方法 | |
CN114581560A (zh) | 基于注意力机制的多尺度神经网络红外图像彩色化方法 | |
CN116310693A (zh) | 基于边缘特征融合和高阶空间交互的伪装目标检测方法 | |
CN112149645A (zh) | 基于生成对抗学习和图神经网络的人体姿势关键点识别方法 | |
CN115953784A (zh) | 基于残差和特征分块注意力的激光打码字符分割方法 | |
CN117079098A (zh) | 一种基于位置编码的空间小目标检测方法 | |
Ma et al. | Forgetting to remember: A scalable incremental learning framework for cross-task blind image quality assessment | |
CN112560034B (zh) | 基于反馈式深度对抗网络的恶意代码样本合成方法及装置 | |
CN112200752B (zh) | 一种基于er网络多帧图像去模糊系统及其方法 | |
CN113989612A (zh) | 基于注意力及生成对抗网络的遥感影像目标检测方法 | |
CN113420289A (zh) | 面向深度学习模型的隐蔽中毒攻击防御方法及其装置 | |
CN115860113B (zh) | 一种自对抗神经网络模型的训练方法及相关装置 | |
CN111724410A (zh) | 一种基于残余注意力的目标跟踪方法 | |
CN116665300A (zh) | 基于时空自适应特征融合图卷积网络的骨架动作识别方法 | |
Piriyatharawet et al. | Image denoising with deep convolutional and multi-directional LSTM networks under Poisson noise environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210115 |
|
WD01 | Invention patent application deemed withdrawn after publication |