CN113837048A - 基于少样本注意力的车辆重识别方法 - Google Patents
基于少样本注意力的车辆重识别方法 Download PDFInfo
- Publication number
- CN113837048A CN113837048A CN202111090480.1A CN202111090480A CN113837048A CN 113837048 A CN113837048 A CN 113837048A CN 202111090480 A CN202111090480 A CN 202111090480A CN 113837048 A CN113837048 A CN 113837048A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- attention
- feature
- sample
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
基于少样本注意力的车辆重识别方法。本发明公开了将车辆图片输入到预先训练好的少样本注意力模块FSAM中,得到注意力图;将目标域图片输入特征提取网络F‑Net,获取特征图,并通过特征图整合模块FMIM进行整合,得到新特征图;通过计算注意力图与新特征图两者的距离,根据距离大小输出相似度最高的车辆图片;本发明有效地解决了传统方法需要大量车辆图片来训练网络的问题,不仅增强了网络的泛化能力,还提高了网络的效率和车辆重识别的精确度。
Description
技术领域
本发明涉及基于少样本注意力的车辆重识别方法,属于图像处理技术领域。
背景技术
随着我国经济发展和人们生活质量的提高,车辆已经成为我们生活中不可或缺的一部分,车辆的普及也促使了智能交通的发展。车辆重识别(Vehicle Re-identification)是智能交通系统的重要方面,旨在给定一幅待查询的车辆图片,通过计算机视觉确定是否存在相同ID的车辆图片。传统的方法依赖人的手工特征,不仅费时费力,而且准确度一直很低。直到近几年深度学习的发展,车辆重识别领域发生了突飞猛进的进展。与传统手工标注的方法不同,深度学习的方法重点在于能够自动提取车辆特征,判断两个车辆相似度,并经过多次迭代,使得网络性能愈加突出。车辆重识别在视频监控、公安、城市安全、城市计算和智能监控等领域有着重要的应用,尤其是在车牌被遮挡或看不清楚时,车辆重识别显得尤为重要。近几年,车辆重识别是计算机视觉领域非常热门的一个研究方向,它所面临的挑战是外观相似的不同车辆之间的差异很小,而且需要依赖大量的训练数据才能得到较为精确的结果。因此本专利提出基于少样本注意力的车辆重识别的方法。
然而,现有的注意力机制采用通道注意力,旨在建模出不同通道(特征图)之间的相关性,通过网络学习的方式来自动获取到每个特征通道的重要程度,最后再为每个通道赋予不同的权重系数,以强化重要的特征,抑制不重要的特征。
发明内容
本发明的目的在于提供基于少样本注意力的车辆重识别方法,以解决传统的方法依赖人的手工特征,不仅费时费力,而且准确度一直很低的缺陷。
基于少样本注意力的车辆重识别方法,所述方法包括步骤:
将车辆图片输入到预先训练好的少样本注意力模块FSAM中,得到注意力图;
将目标域图片输入特征提取网络F-Net,获取特征图,并通过特征图整合模块FMIM进行整合,得到新特征图;
通过计算注意力图与新特征图两者的距离,根据距离大小输出相似度最高的车辆图片。
进一步地,特征提取网络F-Net采用卷积神经网络,包含5个卷积层和2个全连接层;前2个卷积层采用5×5的卷积核,后3个卷积层采用3×3的卷积核,每层的后面设置ReLU激活函数。
进一步地,特征向量的提取方法包括:
车辆图片xi输入到特征提取模块F-Net,由全连接层输出1×1×1024的特征向量;
对提取的特征向量fi再进行1×1的卷积,得到大小为1×1×256的特征向量fi r。
进一步地,特征向量表达式为:
fi=F(xi) (1);
其中,xi为输入车辆,fi为特征向量。
进一步地,注意力图的获取方法包括:
首先对所有输入特征向量fi r进行加权平均:
Hi=tanh(Wifi r) (2)
其中,tanh为激活函数,Wi为对应特征向量的权重,Hi为中间阶段;对中间阶段采用非线性变换和softmax函数计算,可以得到样本注意力参数为:
PATT=softmax(WhHi) (3)
其中,Wh为对应中间层的权重。
将得到的参数PATT再与特征提取网络F-Net中第四层的特征图做乘积求和运算生成样本权重向量,如公式:
其中,fi Conv4为输入Conv4的8×8×256的特征图;
利用样本权重向量与fi Conv4做信道乘法,保留输入图片xi的信息,并且获得精确的注意力图为:
进一步地,所述少样本注意力模块FSAM内设有样本权重生成器,用于生成样本权重向量。
进一步地,计算注意力图与新特征图两者距离的方法包括:
其中,||·||2为2范数;引入边界参数m1和m2,因此有公式:
使d(Mi,fi,p)≤m2,且m2<<m1,Optimization Triplet Loss公式可定义为:
当输入车辆与目标域车辆不是同一辆车,即Y=0时,输出损失为0;如果为相同车辆,即Y=1时,损失为注意力图与目标域车辆特征图的距离;m1的取值范围为(0,0.05),m2的取值范围为(0.001,0.005),因此,最终得重识别损失定义为:
LREID=LATT+LOTri (11)
优化的三元组拉近正样本对之间的距离,使得相同ID的车辆图片在特征空间里形成聚类,达到车辆重识别的目的。
进一步地,少样本注意力模块FSAM的训练方法包括:
将车辆图片输入到特征提取网络F-Net,提取特征向量;
将提取的特征向量和特征提取网络F-Net中和Conv4卷积层输入到FSAM中;
对特征向量fi进行加权平均,然后再进行非线性变换后和Conv4卷积层做乘积求和得到样本权重,利用样本权重得到注意力图。
与现有技术相比,本发明所达到的有益效果:本发明有效地解决了传统方法需要大量车辆图片来训练网络的问题,不仅增强了网络的泛化能力,还提高了网络的效率和车辆重识别的精确度。
附图说明
图1为网络整体流程图;
图2为基于少样本注意力的车辆重识别网络。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合具体实施方式,进一步阐述本发明。
如图1-图2所示,基于少样本注意力的车辆重识别方法,由特征提取模块、少样本注意力模块以及重识别模块组成。其网络流程图如图1所示,其特点在于提取输入车辆的特征,通过FSAM生成车辆注意力图,再与FIM优化后的目标域特征图比较,减少对大量数据的依赖,使得重识别网络效率更高,对于样本的泛化能力更强;具体步骤如下:
1.网络构建
步骤一:本专利的特征提取网络主要采用卷积神经网络(Convolutional NeuralNetwork,CNN),如图2所示。其中,特征提取网络包含5个卷积层和2个全连接层。前2个卷积层采用5×5的卷积核,后3个卷积层采用3×3的卷积核,每层的后面设置ReLU激活函数。将车辆图片xi输入到特征提取模块F-Net,由最后一层全连接层输出1×1×1024的特征向量。对应的特征向量可以由下列公式表示为:
fi=F(xi) (1)
步骤二:不同于传统卷积神经网络直接输出特征向量,本专利考虑到Conv4保留足够多的信息和空间尺寸,且输出的特征图的通道数为256,因此,对提取的特征向量fi再进行1×1的卷积,目的是将1024的通道数减少到256,得到大小为1×1×256的特征向量fi r。这样做的目的在于从特征向量fi中筛选出部分特征,便于生成样本权重向量。
步骤三:本专利提出的少样本注意力模块内设一个样本权重生成器Gω,利用输入车辆的特征向量fi r和它的Conv4特征图来生成样本权重向量,优势在于既能够保留较多的车辆信息,也能凸出感兴趣的区域,对于样本较少的情况下也能有较好的表现。将上一步骤得到1×1×256的特征向量fi r输入到少样本注意力模块,少样本注意力模块中包含一个样本权重生成器Gω,用Gω生成的权重来突出车辆感兴趣的区域。
选取特征提取网络中第4个卷积层Conv4作为该模块的另一个输入,因为这一层保留足够多的信息和足够大的空间尺寸。通过权重生成器Gω,将它与上一步骤降维的特征向量fi r进行运算得出权重向量ωi,如图2所示。首先对所有输入的1×1×256特征向量fi r进行加权平均:
Hi=tanh(Wifi r) (2)
其中,tanh为激活函数,Wi为对应特征向量的权重,Hi为中间阶段。对中间阶段采用非线性变换和softmax函数计算,可以得到样本注意力参数为:
PATT=softmax(WhHi) (3)
其中,Wh为对应中间层的权重。
最终,将得到的参数PATT再与Conv4做求和运算生成样本权重向量,如公式:
其中,fi Conv4为输入Conv4的8×8×256的特征图。
步骤四:Gω输出的样本权重向量,我们需要在特征图中突出感兴趣的区域,因此,我们利用样本权重向量与fi Conv4做信道乘法,保留输入图片xi的信息,并且获得精确的注意力图为:
步骤五:将少样本注意力模块生成的注意力图Mi输入到FMIM,本专利的特征整合模块主要由四个残差块组成,可以将提取得目标域车辆的8×8×256特征图进行优化。采用残差块的优点是避免出现冗余层,从而避免网络退化所导致的重识别效率降低的问题。
2.训练阶段
训练损失计算模块采用欧式距离的方法计算输入的车辆注意力图与目标域车辆特征图之间距离,并利用优化的三元组损失得到网络损失,旨在拉近相同车辆之间的距离。可以有效地区别正负样本,得到优化的三元组损失LOTri。
步骤一:对于少样本注意力图的提取,使用FSAM得到N个8×8×256的少样本注意力图。利用交叉熵函数定义注意力损失LFSA,损失函数为:
该损失函数可以在训练过程中改善所生成特征图的质量,从而增强网络的鲁棒性。
步骤二:在计算注意力图和目标域车辆特征图之间的距离时,由图2可知,两张图片间相似度可以用它们之间的欧式距离表示。其中,距离等于生成的注意力图和特征图之间的距离。首先,输入图片xi的注意力图为Mi,因为Mi已经突出了感兴趣部分,这样便可以着重关注突出部分。然后,利用欧式距离公式就可以计算两张图片之间的距离了。优化的三元组损失函数通过限制输入xi的注意力图和其他车辆特征对之间的距离来降低损失,旨在当两者为相同车辆时,输出的损失最小。
其中,||·||2为2范数。为了拉近相同车辆之间的距离来降低训练损失,我们引入边界参数m1和m2,因此有公式:
步骤三:考虑到上式(9)中m1并未强调网络使得相同车辆之间的距离有多近,从而导致相同车辆之间的距离可能较大。因此,使d(Mi,fi,p)≤m2,且m2<<m1。这样输出的相同车辆之间的相似度较高,就能够将学习到的特征空间中同一辆车的距离限制在很小的范围,同时减少负样本对网络的影响,对于样本较少的情况下,也能有较好的鲁棒性。因此Optimization Triplet Loss公式可定义为:
当输入车辆与目标域车辆不是同一辆车,即Y=0时,输出损失为0;如果为相同车辆,即Y=1时,损失为注意力图与目标域车辆特征图的距离。m1的取值范围为(0,0.05),m2的取值范围为(0.001,0.005)。因此,最终得重识别损失定义为:
LREID=LATT+LOTri (11)
这样,在训练时,优化的三元组可以拉近正样本对之间的距离,最后使得相同ID的车辆图片在特征空间里形成聚类,达到车辆重识别的目的。
3.测试阶段
通过上面的训练过程,得到了一个新的基于少样本注意力的车辆重识别方法。对测试集图片提取特征,给定待检索图片,计算两者间的距离,输出相似度最高的车辆图片。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (8)
1.基于少样本注意力的车辆重识别方法,其特征在于,所述方法包括步骤:
将车辆图片输入到预先训练好的少样本注意力模块FSAM中,得到注意力图;
将目标域图片输入特征提取网络F-Net,获取特征图,并通过特征图整合模块FMIM进行整合,得到新特征图;
通过计算注意力图与新特征图两者的距离,根据距离大小输出相似度最高的车辆图片。
2.根据权利要求1所述的基于少样本注意力的车辆重识别方法,其特征在于,特征提取网络F-Net采用卷积神经网络,包含5个卷积层和2个全连接层;前2个卷积层采用5×5的卷积核,后3个卷积层采用3×3的卷积核,每层的后面设置ReLU激活函数。
3.根据权利要求2所述的基于少样本注意力的车辆重识别方法,其特征在于,特征向量的提取方法包括:
车辆图片xi输入到特征提取模块F-Net,由全连接层输出1×1×1024的特征向量;
对提取的特征向量fi再进行1×1的卷积,得到大小为1×1×256的特征向量fi r。
4.根据权利要求3所述的基于少样本注意力的车辆重识别方法,其特征在于,特征向量表达式为:
fi=F(xi) (1);
其中,xi为输入车辆,fi为特征向量。
5.根据权利要求1所述的基于少样本注意力的车辆重识别方法,其特征在于,注意力图的获取方法包括:
首先对所有输入特征向量fi r进行加权平均:
Hi=tanh(Wifi r) (2)
其中,tanh为激活函数,Wi为对应特征向量的权重,Hi为中间阶段;对中间阶段采用非线性变换和softmax函数计算,可以得到样本注意力参数为:
PATT=softmax(WhHi) (3)
其中,Wh为对应中间层的权重。
将得到的参数PATT再与特征提取网络F-Net中第四层的特征图做乘积求和运算生成样本权重向量,如公式:
其中,fi Conv4为输入Conv4的8×8×256的特征图;
利用样本权重向量与fi Conv4做信道乘法,保留输入图片xi的信息,并且获得精确的注意力图为:
6.根据权利要求1所述的基于少样本注意力的车辆重识别方法,其特征在于,所述少样本注意力模块FSAM内设有样本权重生成器,用于生成样本权重向量。
7.根据权利要求1所述的基于少样本注意力的车辆重识别方法,其特征在于,计算注意力图与新特征图两者距离的方法包括:
其中,||·||2为2范数;引入边界参数m1和m2,因此有公式:
使d(Mi,fi,p)≤m2,且m2<<m1,Optimization Triplet Loss公式可定义为:
当输入车辆与目标域车辆不是同一辆车,即Y=0时,输出损失为0;如果为相同车辆,即Y=1时,损失为注意力图与目标域车辆特征图的距离;m1的取值范围为(0,0.05),m2的取值范围为(0.001,0.005),因此,最终得重识别损失定义为:
LREID=LATT+LOTri (11)
优化的三元组拉近正样本对之间的距离,最后使得相同ID的车辆图片在特征空间里形成聚类,达到车辆重识别的目的。
8.根据权利要求1所述的基于少样本注意力的车辆重识别方法,其特征在于,少样本注意力模块FSAM的训练方法包括:
将车辆图片输入到特征提取网络F-Net,提取特征向量;
将提取的特征向量和特征提取网络F-Net中和Conv4卷积层输入到FSAM中;
对特征向量fi进行加权平均,然后再进行非线性变换后和Conv4卷积层做乘积求和得到样本权重,利用样本权重得到注意力图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111090480.1A CN113837048B (zh) | 2021-09-17 | 2021-09-17 | 基于少样本注意力的车辆重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111090480.1A CN113837048B (zh) | 2021-09-17 | 2021-09-17 | 基于少样本注意力的车辆重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113837048A true CN113837048A (zh) | 2021-12-24 |
CN113837048B CN113837048B (zh) | 2023-08-01 |
Family
ID=78959690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111090480.1A Active CN113837048B (zh) | 2021-09-17 | 2021-09-17 | 基于少样本注意力的车辆重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113837048B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598883A (zh) * | 2015-01-21 | 2015-05-06 | 西安理工大学 | 一种多摄像机监控网络中目标再识别的方法 |
US20150235538A1 (en) * | 2014-02-14 | 2015-08-20 | GM Global Technology Operations LLC | Methods and systems for processing attention data from a vehicle |
CN108171320A (zh) * | 2017-12-06 | 2018-06-15 | 西安工业大学 | 一种基于生成式对抗网络的图像域转换网络和转换方法 |
CN111723220A (zh) * | 2020-06-18 | 2020-09-29 | 中南大学 | 基于注意力机制和哈希的图像检索方法、装置及存储介质 |
CN112307847A (zh) * | 2019-08-01 | 2021-02-02 | 复旦大学 | 一种基于指导的多尺度注意力行人重识别深度学习系统 |
CN112989932A (zh) * | 2021-02-05 | 2021-06-18 | 北京林业大学 | 基于改进原型网络的少样本森林火灾烟雾识别方法及装置 |
CN113095263A (zh) * | 2021-04-21 | 2021-07-09 | 中国矿业大学 | 遮挡下行人重识别模型训练方法、装置及遮挡下行人重识别方法、装置 |
CN113158739A (zh) * | 2021-01-28 | 2021-07-23 | 中山大学 | 基于注意力机制的孪生网络解决换装行人重识别的方法 |
CN113221911A (zh) * | 2021-04-09 | 2021-08-06 | 华南理工大学 | 一种基于双重注意力机制的车辆重识别方法及系统 |
-
2021
- 2021-09-17 CN CN202111090480.1A patent/CN113837048B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150235538A1 (en) * | 2014-02-14 | 2015-08-20 | GM Global Technology Operations LLC | Methods and systems for processing attention data from a vehicle |
CN104598883A (zh) * | 2015-01-21 | 2015-05-06 | 西安理工大学 | 一种多摄像机监控网络中目标再识别的方法 |
CN108171320A (zh) * | 2017-12-06 | 2018-06-15 | 西安工业大学 | 一种基于生成式对抗网络的图像域转换网络和转换方法 |
CN112307847A (zh) * | 2019-08-01 | 2021-02-02 | 复旦大学 | 一种基于指导的多尺度注意力行人重识别深度学习系统 |
CN111723220A (zh) * | 2020-06-18 | 2020-09-29 | 中南大学 | 基于注意力机制和哈希的图像检索方法、装置及存储介质 |
CN113158739A (zh) * | 2021-01-28 | 2021-07-23 | 中山大学 | 基于注意力机制的孪生网络解决换装行人重识别的方法 |
CN112989932A (zh) * | 2021-02-05 | 2021-06-18 | 北京林业大学 | 基于改进原型网络的少样本森林火灾烟雾识别方法及装置 |
CN113221911A (zh) * | 2021-04-09 | 2021-08-06 | 华南理工大学 | 一种基于双重注意力机制的车辆重识别方法及系统 |
CN113095263A (zh) * | 2021-04-21 | 2021-07-09 | 中国矿业大学 | 遮挡下行人重识别模型训练方法、装置及遮挡下行人重识别方法、装置 |
Non-Patent Citations (6)
Title |
---|
YI ZHOU等: "Viewpoint-aware Attentive Multi-view Inference for Vehicle Re-identification", 《CVPR》, pages 6489 - 6498 * |
YILUAN GUO等: "Efficient and Deep Person Re-Identification using Multi-Level Similarity", 《COMPUTER VISION FOUNDATION》, pages 2335 - 2344 * |
张小瑞等: "基于深度学习的车辆再识别研究进展", 《计算机工程》, vol. 46, no. 11, pages 1 - 11 * |
彭晏飞等: "基于区域注意力机制的遥感图像检索", 《激光与光电子学进展》, vol. 57, no. 10, pages 101017 - 1 * |
罗心怡等: "基于注意力机制的行人重识别研究", 《科学技术创新》, pages 118 - 119 * |
罗梅: "基于深度学习的高速公路车辆检测与跟踪系统研究与实现", 《中国优秀硕士学位论文全文数据库 工程科技II辑》, no. 03, pages 034 - 956 * |
Also Published As
Publication number | Publication date |
---|---|
CN113837048B (zh) | 2023-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109949317B (zh) | 基于逐步对抗学习的半监督图像实例分割方法 | |
CN112308158B (zh) | 一种基于部分特征对齐的多源领域自适应模型及方法 | |
CN110188705B (zh) | 一种适用于车载系统的远距离交通标志检测识别方法 | |
CN110728192B (zh) | 一种基于新型特征金字塔深度网络的高分遥感图像分类方法 | |
CN111401384B (zh) | 一种变电设备缺陷图像匹配方法 | |
CN108875608B (zh) | 一种基于深度学习的机动车交通信号识别方法 | |
CN107239730B (zh) | 智能汽车交通标志识别的四元数深度神经网络模型方法 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
CN113673590B (zh) | 基于多尺度沙漏密集连接网络的去雨方法、系统和介质 | |
CN115496928B (zh) | 基于多重特征匹配的多模态图像特征匹配方法 | |
CN112784929B (zh) | 一种基于双元组扩充的小样本图像分类方法及装置 | |
CN112287941B (zh) | 一种基于自动字符区域感知的车牌识别方法 | |
CN112800876A (zh) | 一种用于重识别的超球面特征嵌入方法及系统 | |
CN112581409B (zh) | 一种基于端到端的多重信息蒸馏网络的图像去雾方法 | |
CN113240683B (zh) | 基于注意力机制的轻量化语义分割模型构建方法 | |
CN111368909A (zh) | 一种基于卷积神经网络深度特征的车标识别方法 | |
CN112966747A (zh) | 一种基于无锚框检测网络改进的车辆检测方法 | |
CN113537110A (zh) | 一种融合帧内帧间差异的虚假视频检测方法 | |
CN114782298A (zh) | 一种具有区域注意力的红外与可见光图像融合方法 | |
CN115631513A (zh) | 基于Transformer的多尺度行人重识别方法 | |
Hu et al. | Vehicle color recognition based on smooth modulation neural network with multi-scale feature fusion | |
CN112668662B (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
CN113096133A (zh) | 一种基于注意力机制的语义分割网络的构建方法 | |
CN115797684A (zh) | 一种基于上下文信息的红外小目标检测方法及系统 | |
CN115861595A (zh) | 一种基于深度学习的多尺度域自适应异源图像匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |