CN113837048B - 基于少样本注意力的车辆重识别方法 - Google Patents

基于少样本注意力的车辆重识别方法 Download PDF

Info

Publication number
CN113837048B
CN113837048B CN202111090480.1A CN202111090480A CN113837048B CN 113837048 B CN113837048 B CN 113837048B CN 202111090480 A CN202111090480 A CN 202111090480A CN 113837048 B CN113837048 B CN 113837048B
Authority
CN
China
Prior art keywords
vehicle
attention
feature
sample
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111090480.1A
Other languages
English (en)
Other versions
CN113837048A (zh
Inventor
孙伟
徐凡
张小瑞
胡亚华
代广昭
左军
赵畅
纪锦
戴亮
常鹏帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN202111090480.1A priority Critical patent/CN113837048B/zh
Publication of CN113837048A publication Critical patent/CN113837048A/zh
Application granted granted Critical
Publication of CN113837048B publication Critical patent/CN113837048B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于少样本注意力的车辆重识别方法,所述方法包括步骤:将车辆图片输入到预先训练好的少样本注意力模块FSAM中,得到注意力图;将目标域图片输入特征提取网络F‑Net,获取特征图,并通过特征图整合模块FMIM进行整合,得到新特征图;通过计算注意力图与新特征图两者的距离,根据距离大小输出相似度最高的车辆图片;本发明有效地解决了传统方法需要大量车辆图片来训练网络的问题,不仅增强了网络的泛化能力,还提高了网络的效率和车辆重识别的精确度。

Description

基于少样本注意力的车辆重识别方法
技术领域
本发明涉及基于少样本注意力的车辆重识别方法,属于图像处理技术领域。
背景技术
随着我国经济发展和人们生活质量的提高,车辆已经成为我们生活中不可或缺的一部分,车辆的普及也促使了智能交通的发展。车辆重识别(Vehicle Re-identification)是智能交通系统的重要方面,旨在给定一幅待查询的车辆图片,通过计算机视觉确定是否存在相同ID的车辆图片。传统的方法依赖人的手工特征,不仅费时费力,而且准确度一直很低。直到近几年深度学习的发展,车辆重识别领域发生了突飞猛进的进展。与传统手工标注的方法不同,深度学习的方法重点在于能够自动提取车辆特征,判断两个车辆相似度,并经过多次迭代,使得网络性能愈加突出。车辆重识别在视频监控、公安、城市安全、城市计算和智能监控等领域有着重要的应用,尤其是在车牌被遮挡或看不清楚时,车辆重识别显得尤为重要。近几年,车辆重识别是计算机视觉领域非常热门的一个研究方向,它所面临的挑战是外观相似的不同车辆之间的差异很小,而且需要依赖大量的训练数据才能得到较为精确的结果。因此本申请提出基于少样本注意力的车辆重识别的方法。
然而,现有的注意力机制采用通道注意力,旨在建模出不同通道(特征图)之间的相关性,通过网络学习的方式来自动获取到每个特征通道的重要程度,最后再为每个通道赋予不同的权重系数,以强化重要的特征,抑制不重要的特征。
发明内容
本发明的目的在于提供基于少样本注意力的车辆重识别方法,以解决传统的方法依赖人的手工特征,不仅费时费力,而且准确度一直很低的缺陷。
基于少样本注意力的车辆重识别方法,所述方法包括步骤:
将车辆图片输入到预先训练好的少样本注意力模块FSAM中,得到注意力图;
将目标域图片输入特征提取网络F-Net,获取特征图,并通过特征图整合模块FMIM进行整合,得到新特征图;
通过计算注意力图与新特征图两者的距离,根据距离大小输出相似度最高的车辆图片。
进一步地,特征提取网络F-Net采用卷积神经网络,包含5个卷积层和2个全连接层;前2个卷积层采用5×5的卷积核,后3个卷积层采用3×3的卷积核,每层的后面设置ReLU激活函数。
进一步地,特征向量的提取方法包括:
车辆图片xi输入到特征提取模块F-Net,由全连接层输出1×1×1024的特征向量;
对提取的特征向量fi再进行1×1的卷积,得到大小为1×1×256的特征向量fi r
进一步地,特征向量表达式为:
fi=F(xi) (1);
其中,xi为输入车辆,fi为特征向量。
进一步地,注意力图的获取方法包括:
首先对所有输入特征向量fi r进行加权平均:
Hi=tanh(Wi fi r) (2)
其中,tanh为激活函数,Wi为对应特征向量的权重,Hi为中间阶段;对中间阶段采用非线性变换和softmax函数计算,可以得到样本注意力参数为:
PATT=softmax(Wh Hi) (3)
其中,Wh为对应中间层的权重。
将得到的参数PATT再与特征提取网络F-Net中第四层的特征图做乘积求和运算生成样本权重向量,如公式:
其中,fi Conv4为输入Conv4的8×8×256的特征图;
利用样本权重向量与fi Conv4做信道乘法,保留输入图片xi的信息,并且获得精确的注意力图为:
其中,表示信道乘法,Mi为生成的xi的注意力图。
进一步地,所述少样本注意力模块FSAM内设有样本权重生成器,用于生成样本权重向量。
进一步地,计算注意力图与新特征图两者距离的方法包括:
利用欧式距离公式计算两张图片之间的距离,输入少样本注意力图Mi、正样本特征图和负样本特征图/>三个元素组成三元组映射到特征空间分别为S(Mi),和/>它们之间的距离表示为:
其中,||·||2为2范数;引入边界参数m1和m2,因此有公式:
使d(Mi,fi,p)≤m2,且m2<<m1,Optimization Triplet Loss公式可定义为:
当输入车辆与目标域车辆不是同一辆车,即Y=0时,输出损失为0;如果为相同车辆,即Y=1时,损失为注意力图与目标域车辆特征图的距离;m1的取值范围为(0,0.05),m2的取值范围为(0.001,0.005),因此,最终得重识别损失定义为:
LREID=LATT+LOTri (11)
优化的三元组拉近正样本对之间的距离,使得相同ID的车辆图片在特征空间里形成聚类,达到车辆重识别的目的。
进一步地,少样本注意力模块FSAM的训练方法包括:
将车辆图片输入到特征提取网络F-Net,提取特征向量;
将提取的特征向量和特征提取网络F-Net中和Conv4卷积层输入到FSAM中;
对特征向量fi进行加权平均,然后再进行非线性变换后和Conv4卷积层做乘积求和得到样本权重,利用样本权重得到注意力图。
与现有技术相比,本发明所达到的有益效果:本发明有效地解决了传统方法需要大量车辆图片来训练网络的问题,不仅增强了网络的泛化能力,还提高了网络的效率和车辆重识别的精确度。
附图说明
图1为网络整体流程图;
图2为基于少样本注意力的车辆重识别网络。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合具体实施方式,进一步阐述本发明。
如图1-图2所示,基于少样本注意力的车辆重识别方法,由特征提取模块、少样本注意力模块以及重识别模块组成。其网络流程图如图1所示,其特点在于提取输入车辆的特征,通过FSAM生成车辆注意力图,再与FIM优化后的目标域特征图比较,减少对大量数据的依赖,使得重识别网络效率更高,对于样本的泛化能力更强;具体步骤如下:
1.网络构建
步骤一:本申请的特征提取网络主要采用卷积神经网络(Convolutional NeuralNetwork,CNN),如图2所示。其中,特征提取网络包含5个卷积层和2个全连接层。前2个卷积层采用5×5的卷积核,后3个卷积层采用3×3的卷积核,每层的后面设置ReLU激活函数。将车辆图片xi输入到特征提取模块F-Net,由最后一层全连接层输出1×1×1024的特征向量。对应的特征向量可以由下列公式表示为:
fi=F(xi) (1)
步骤二:不同于传统卷积神经网络直接输出特征向量,本申请考虑到Conv4保留足够多的信息和空间尺寸,且输出的特征图的通道数为256,因此,对提取的特征向量fi再进行1×1的卷积,目的是将1024的通道数减少到256,得到大小为1×1×256的特征向量fi r。这样做的目的在于从特征向量fi中筛选出部分特征,便于生成样本权重向量。
步骤三:本申请提出的少样本注意力模块内设一个样本权重生成器Gω,利用输入车辆的特征向量fi r和它的Conv4特征图来生成样本权重向量,优势在于既能够保留较多的车辆信息,也能凸出感兴趣的区域,对于样本较少的情况下也能有较好的表现。将上一步骤得到1×1×256的特征向量fi r输入到少样本注意力模块,少样本注意力模块中包含一个样本权重生成器Gω,用Gω生成的权重来突出车辆感兴趣的区域。
选取特征提取网络中第4个卷积层Conv4作为该模块的另一个输入,因为这一层保留足够多的信息和足够大的空间尺寸。通过权重生成器Gω,将它与上一步骤降维的特征向量fi r进行运算得出权重向量ωi,如图2所示。首先对所有输入的1×1×256特征向量fi r进行加权平均:
Hi=tanh(Wi fi r) (2)
其中,tanh为激活函数,Wi为对应特征向量的权重,Hi为中间阶段。对中间阶段采用非线性变换和softmax函数计算,可以得到样本注意力参数为:
PATT=softmax(Wh Hi) (3)
其中,Wh为对应中间层的权重。
最终,将得到的参数PATT再与Conv4做求和运算生成样本权重向量,如公式:
其中,fi Conv4为输入Conv4的8×8×256的特征图。
步骤四:Gω输出的样本权重向量,我们需要在特征图中突出感兴趣的区域,因此,我们利用样本权重向量与fi Conv4做信道乘法,保留输入图片xi的信息,并且获得精确的注意力图为:
其中,表示信道乘法,Mi为生成的xi的注意力图。
步骤五:将少样本注意力模块生成的注意力图Mi输入到FMIM,本申请的特征整合模块主要由四个残差块组成,可以将提取得目标域车辆的8×8×256特征图进行优化。采用残差块的优点是避免出现冗余层,从而避免网络退化所导致的重识别效率降低的问题。
2.训练阶段
训练损失计算模块采用欧式距离的方法计算输入的车辆注意力图与目标域车辆特征图之间距离,并利用优化的三元组损失得到网络损失,旨在拉近相同车辆之间的距离。可以有效地区别正负样本,得到优化的三元组损失LOTri
步骤一:对于少样本注意力图的提取,使用FSAM得到N个8×8×256的少样本注意力图。利用交叉熵函数定义注意力损失LFSA,损失函数为:
该损失函数可以在训练过程中改善所生成特征图的质量,从而增强网络的鲁棒性。
步骤二:在计算注意力图和目标域车辆特征图之间的距离时,由图2可知,两张图片间相似度可以用它们之间的欧式距离表示。其中,距离等于生成的注意力图和特征图之间的距离。首先,输入图片xi的注意力图为Mi,因为Mi已经突出了感兴趣部分,这样便可以着重关注突出部分。然后,利用欧式距离公式就可以计算两张图片之间的距离了。优化的三元组损失函数通过限制输入xi的注意力图和其他车辆特征对之间的距离来降低损失,旨在当两者为相同车辆时,输出的损失最小。
我们有输入少样本注意力图Mi、正样本特征图和负样本特征图/>由这三个元素组成三元组映射到特征空间分别为S(Mi),/>和/>它们之间的距离可以表示为:
其中,||·||2为2范数。为了拉近相同车辆之间的距离来降低训练损失,我们引入边界参数m1和m2,因此有公式:
步骤三:考虑到上式(9)中m1并未强调网络使得相同车辆之间的距离有多近,从而导致相同车辆之间的距离可能较大。因此,使d(Mi,fi,p)≤m2,且m2<<m1。这样输出的相同车辆之间的相似度较高,就能够将学习到的特征空间中同一辆车的距离限制在很小的范围,同时减少负样本对网络的影响,对于样本较少的情况下,也能有较好的鲁棒性。因此Optimization Triplet Loss公式可定义为:
当输入车辆与目标域车辆不是同一辆车,即Y=0时,输出损失为0;如果为相同车辆,即Y=1时,损失为注意力图与目标域车辆特征图的距离。m1的取值范围为(0,0.05),m2的取值范围为(0.001,0.005)。因此,最终得重识别损失定义为:
LREID=LATT+LOTri (11)
这样,在训练时,优化的三元组可以拉近正样本对之间的距离,最后使得相同ID的车辆图片在特征空间里形成聚类,达到车辆重识别的目的。
3.测试阶段
通过上面的训练过程,得到了一个新的基于少样本注意力的车辆重识别方法。对测试集图片提取特征,给定待检索图片,计算两者间的距离,输出相似度最高的车辆图片。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (7)

1.基于少样本注意力的车辆重识别方法,其特征在于,所述方法包括步骤:
将车辆图片输入到预先训练好的少样本注意力模块FSAM中,得到注意力图;
将目标域图片输入特征提取网络F-Net,获取特征图,并通过特征图整合模块FMIM进行整合,得到新特征图;
通过计算注意力图与新特征图两者的距离,根据距离大小输出相似度最高的车辆图片;
少样本注意力模块FSAM的训练方法包括:
将车辆图片输入到特征提取网络F-Net,提取特征向量fi
将提取的特征向量和特征提取网络F-Net中的Conv4卷积层输入到FSAM中;
对特征向量进行加权平均,然后再进行非线性变换后和Conv4卷积层做乘积求和得到样本权重,利用样本权重得到注意力图;
特征图整合模块FMIM由四个残差块组成。
2.根据权利要求1所述的基于少样本注意力的车辆重识别方法,其特征在于,特征提取网络F-Net采用卷积神经网络,包含5个卷积层和2个全连接层;前2个卷积层采用5×5的卷积核,后3个卷积层采用3×3的卷积核,每层的后面设置ReLU激活函数。
3.根据权利要求2所述的基于少样本注意力的车辆重识别方法,其特征在于,特征向量的提取方法包括:
车辆图片xi输入到特征提取模块F-Net,由全连接层输出1×1×1024的特征向量;
对提取的特征向量fi再进行1×1的卷积,得到大小为1×1×256的特征向量fi r
4.根据权利要求3所述的基于少样本注意力的车辆重识别方法,其特征在于,特征向量表达式为:
fi=F(xi) (1);
其中,xi为输入车辆,fi为特征向量。
5.根据权利要求1所述的基于少样本注意力的车辆重识别方法,其特征在于,注意力图的获取方法包括:
首先对所有输入特征向量fi r进行加权平均:
Hi=tanh(Wifi r) (2)
其中,tanh为激活函数,Wi为对应特征向量的权重,Hi为中间阶段;对中间阶段采用非线性变换和softmax函数计算,得到样本注意力参数为:
PATT=softmax(WhHi) (3)
其中,Wh为对应中间层的权重;
将得到的参数PATT再与特征提取网络F-Net中第四层的特征图做乘积求和运算生成样本权重向量,如公式:
其中,fi Conv4为输入Conv4的8×8×256的特征图;
利用样本权重向量与fi Conv4做信道乘法,保留输入图片xi的信息,并且获得精确的注意力图为:
其中,表示信道乘法,Mi为生成的xi的注意力图。
6.根据权利要求1所述的基于少样本注意力的车辆重识别方法,其特征在于,所述少样本注意力模块FSAM内设有样本权重生成器,用于生成样本权重向量。
7.根据权利要求1所述的基于少样本注意力的车辆重识别方法,其特征在于,计算注意力图与新特征图两者距离的方法包括:
利用欧式距离公式计算两张图片之间的距离,输入少样本注意力图Mi、正样本特征图和负样本特征图/>三个元素组成三元组映射到特征空间分别为S(Mi),/>和/>它们之间的距离表示为:
其中,||·||2为2范数;引入边界参数m1和m2,因此有公式:
使d(Mi,fi,p)≤m2,且m2<<m1,Optimization Triplet Loss公式可定义为:
当输入车辆与目标域车辆不是同一辆车,即Y=0时,输出损失为0;如果为相同车辆,即Y=1时,损失为注意力图与目标域车辆特征图的距离;m1的取值范围为(0,0.05),m2的取值范围为(0.001,0.005),因此,最终得重识别损失定义为:
LREID=LATT+LOTri (11)
优化的三元组拉近正样本对之间的距离,最后使得相同ID的车辆图片在特征空间里形成聚类,达到车辆重识别的目的。
CN202111090480.1A 2021-09-17 2021-09-17 基于少样本注意力的车辆重识别方法 Active CN113837048B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111090480.1A CN113837048B (zh) 2021-09-17 2021-09-17 基于少样本注意力的车辆重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111090480.1A CN113837048B (zh) 2021-09-17 2021-09-17 基于少样本注意力的车辆重识别方法

Publications (2)

Publication Number Publication Date
CN113837048A CN113837048A (zh) 2021-12-24
CN113837048B true CN113837048B (zh) 2023-08-01

Family

ID=78959690

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111090480.1A Active CN113837048B (zh) 2021-09-17 2021-09-17 基于少样本注意力的车辆重识别方法

Country Status (1)

Country Link
CN (1) CN113837048B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104598883A (zh) * 2015-01-21 2015-05-06 西安理工大学 一种多摄像机监控网络中目标再识别的方法
CN108171320A (zh) * 2017-12-06 2018-06-15 西安工业大学 一种基于生成式对抗网络的图像域转换网络和转换方法
CN111723220A (zh) * 2020-06-18 2020-09-29 中南大学 基于注意力机制和哈希的图像检索方法、装置及存储介质
CN112307847A (zh) * 2019-08-01 2021-02-02 复旦大学 一种基于指导的多尺度注意力行人重识别深度学习系统
CN112989932A (zh) * 2021-02-05 2021-06-18 北京林业大学 基于改进原型网络的少样本森林火灾烟雾识别方法及装置
CN113095263A (zh) * 2021-04-21 2021-07-09 中国矿业大学 遮挡下行人重识别模型训练方法、装置及遮挡下行人重识别方法、装置
CN113158739A (zh) * 2021-01-28 2021-07-23 中山大学 基于注意力机制的孪生网络解决换装行人重识别的方法
CN113221911A (zh) * 2021-04-09 2021-08-06 华南理工大学 一种基于双重注意力机制的车辆重识别方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150235538A1 (en) * 2014-02-14 2015-08-20 GM Global Technology Operations LLC Methods and systems for processing attention data from a vehicle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104598883A (zh) * 2015-01-21 2015-05-06 西安理工大学 一种多摄像机监控网络中目标再识别的方法
CN108171320A (zh) * 2017-12-06 2018-06-15 西安工业大学 一种基于生成式对抗网络的图像域转换网络和转换方法
CN112307847A (zh) * 2019-08-01 2021-02-02 复旦大学 一种基于指导的多尺度注意力行人重识别深度学习系统
CN111723220A (zh) * 2020-06-18 2020-09-29 中南大学 基于注意力机制和哈希的图像检索方法、装置及存储介质
CN113158739A (zh) * 2021-01-28 2021-07-23 中山大学 基于注意力机制的孪生网络解决换装行人重识别的方法
CN112989932A (zh) * 2021-02-05 2021-06-18 北京林业大学 基于改进原型网络的少样本森林火灾烟雾识别方法及装置
CN113221911A (zh) * 2021-04-09 2021-08-06 华南理工大学 一种基于双重注意力机制的车辆重识别方法及系统
CN113095263A (zh) * 2021-04-21 2021-07-09 中国矿业大学 遮挡下行人重识别模型训练方法、装置及遮挡下行人重识别方法、装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Efficient and Deep Person Re-Identification using Multi-Level Similarity;Yiluan Guo等;《Computer Vision Foundation》;2335-2344 *
Viewpoint-aware Attentive Multi-view Inference for Vehicle Re-identification;Yi Zhou等;《CVPR》;6489-6498 *
基于区域注意力机制的遥感图像检索;彭晏飞等;《激光与光电子学进展》;第57卷(第10期);101017-1-101017-9 *
基于注意力机制的行人重识别研究;罗心怡等;《科学技术创新》;118-119 *
基于深度学习的车辆再识别研究进展;张小瑞等;《计算机工程》;第46卷(第11期);1-11 *
基于深度学习的高速公路车辆检测与跟踪系统研究与实现;罗梅;《中国优秀硕士学位论文全文数据库 工程科技II辑》(第03期);C034-956 *

Also Published As

Publication number Publication date
CN113837048A (zh) 2021-12-24

Similar Documents

Publication Publication Date Title
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN112308158B (zh) 一种基于部分特征对齐的多源领域自适应模型及方法
CN110245665B (zh) 基于注意力机制的图像语义分割方法
CN110728192B (zh) 一种基于新型特征金字塔深度网络的高分遥感图像分类方法
CN110188705B (zh) 一种适用于车载系统的远距离交通标志检测识别方法
CN111639564B (zh) 一种基于多注意力异构网络的视频行人重识别方法
CN111368909B (zh) 一种基于卷积神经网络深度特征的车标识别方法
CN113642634A (zh) 一种基于混合注意力的阴影检测方法
CN112800876A (zh) 一种用于重识别的超球面特征嵌入方法及系统
CN115496928B (zh) 基于多重特征匹配的多模态图像特征匹配方法
CN111709313B (zh) 基于局部和通道组合特征的行人重识别方法
CN110287770B (zh) 一种基于卷积神经网络的水中个体目标匹配识别方法
CN113076994A (zh) 一种开集域自适应图像分类方法及系统
CN112085055A (zh) 一种基于迁移模型雅克比阵特征向量扰动的黑盒攻击方法
CN112766378B (zh) 一种专注细粒度识别的跨域小样本图像分类模型方法
CN110796022A (zh) 一种基于多流形耦合映射的低分辨人脸识别方法
CN113920472A (zh) 一种基于注意力机制的无监督目标重识别方法及系统
CN112115806A (zh) 基于Dual-ResNet小样本学习的遥感影像场景精确分类方法
CN116524189A (zh) 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法
CN114780767A (zh) 一种基于深度卷积神经网络的大规模图像检索方法及系统
CN109145738B (zh) 基于加权非凸正则化和迭代重约束低秩表示的动态视频分割方法
CN116543269B (zh) 基于自监督的跨域小样本细粒度图像识别方法及其模型
CN113837048B (zh) 基于少样本注意力的车辆重识别方法
CN115861595A (zh) 一种基于深度学习的多尺度域自适应异源图像匹配方法
CN115661539A (zh) 一种嵌入不确定性信息的少样本图像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant