CN114821249B - 一种基于分组聚合注意力和局部关系的车辆重识别方法 - Google Patents
一种基于分组聚合注意力和局部关系的车辆重识别方法 Download PDFInfo
- Publication number
- CN114821249B CN114821249B CN202210776264.0A CN202210776264A CN114821249B CN 114821249 B CN114821249 B CN 114821249B CN 202210776264 A CN202210776264 A CN 202210776264A CN 114821249 B CN114821249 B CN 114821249B
- Authority
- CN
- China
- Prior art keywords
- local
- attention
- feature
- relation
- global
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及计算机视觉中的车辆重识别技术领域,具体地涉及一种基于分组聚合注意力和局部关系的车辆重识别方法,基于分组聚合注意力机制和局部关系模块实现,其中分组聚合注意力机制是将特征图沿通道方向均匀划分为多个组,对每个组独立地进行特征增强,然后利用聚合方式来实现跨组局部信息交互,并利用不同全局关系来有效地推断通道的注意权重。其次,本发明对注意力图施加一个注意力增强约束,该约束可以自适应调整通道的权重值,从而进一步增强鉴别性信息并抑制噪声信息,提高网络识别同一车辆的能力;所述局部关系模块旨在挖掘更多有价值的部位间关系以区分相应部位具有相似属性的不同身份的车辆,能够快速、准确的识别出同一车辆。
Description
技术领域
本发明涉及计算机视觉中的车辆重识别技术领域,具体地涉及一种基于分组聚合注意力和局部关系的车辆重识别方法。
背景技术
车辆重识别(Re-ID)旨在从非重叠摄像头拍摄的一组图像中找到同一辆车,它在城市安全监控和智能交通系统中显示出了广泛的应用前景。近年来,深度神经网络的兴起,使车辆重识别得到了快速的发展。但是由于视角、光照和相似的外观引起的类内差异性和类间相似性给研究人员带来了巨大挑战。为了解决以上问题,本发明设计了一种基于分组聚合注意力和局部关系的车辆重识别方法。
发明内容
本发明的目的在于克服现有技术存在的缺点,提出设计一种基于分组聚合注意力和局部关系的车辆重识别方法,旨在挖掘出具有鉴别性的全局级特征和具有鲁棒性的局部级特征,从而准确的识别出同一车辆。
本发明解决其技术问题所采取的技术方案是:
一种基于分组聚合注意力和局部关系的车辆重识别方法,包括以下步骤:
步骤1、采用Resnet50作为骨干网络,在res_conv4_1(ResNet-50的第4层的第1个块)残差块之后,Resnet50骨干网络被划分为两个分支;
步骤2、移除两个分支中的res_conv5_1(ResNet-50的第5层的第1个块)块的空间下采样操作,以丰富特征的粒度;
步骤3、对于全局分支,将分组聚合注意力机制添加到res_conv5块后,以增强显著信息并抑制噪声信息,该全局分支用于学习有效的全局级特征;对于局部分支,将res_conv5块产生的特征图输入到局部关系模块中,以获得更具鉴别性的局部级特征;
步骤4、利用全局平均池化层(GAP)将全局级特征和局部级特征池化到大小为2048×1×1的特征图,以用于训练中三元组损失的计算;
步骤5、通过降维模块将2048维特征降到256维特征,每个256维的特征输入到一个全连接层(FC)中,以用于训练中交叉熵损失的计算。
进一步的,所述降维模块由一个1×1卷积和一个批量归一化层BN组成。
进一步的,在测试阶段,所有被减少到256维的特征拼接到一起作为最终的特征表示,该特征结合了全局和局部信息从而拥有更强有力的鉴别性。
进一步的,所述分组聚合注意力机制的完整架构为:
(2-1)特征图x∈RC×H×W作为分组聚合注意力机制的输入,其中C代表了通道的数量,H、W分别表示张量的高度和宽度;特征图x首先输入到一个分组数为d的1×1分组卷积中,然后将得到的特征图沿通道方向均匀划分为d组,每组独立地输入到特征增强模块中,以得到强化后的特征图;
(2-2)对于特征增强模块,将特征图xi作为该模块的输入,其中在特征增强模块中,特征图xi首先同时经过两个嵌入函数α(x)和β(x)分别得到张量A和B,其中这两个嵌入函数的结构相同,都由一个1×1卷积、一个批量归一化和一个ReLU激活函数组成;然后,将张量A和B的尺寸分别变形为(C/d)×HW和HW×(C/d),为了获得由通道间关系组成的矩阵将A和B进行矩阵乘法,xr的计算公式为式中,为矩阵乘法符号;
(2-3)对矩阵xr进行关系融合操作,即对xr的每一行求均值,从而得到组内全局通道关系向量R。另外,由于xr中的值是由两个元素个数都为HW的向量通过点积操作得到的,因此为了防止H和W数值过大导致模型性能下降,本申请对向量R进行缩放点积操作,即将R中的每个元素除以向量R中的第i个元素的计算公式如下:
(2-4)紧接着,向量R通过一个全局关系交互操作得到一个新的通道向量R′。因为考虑R′中每个关系及其k个临近关系来捕获局部跨关系交互信息可以更有效的推断通道的权重。具体来说,该全局关系交互操作通过一个卷积核大小为k、边缘填充(padding)圈数为2的快速1D卷积来实现,其中k作为一个超参数,代表了局部跨关系交互的覆盖率;
(2-5)然后通过一个sigmoid函数来得到通道注意力图xp∈RC/d;另外,为了促使注意力模块提取到最具鉴别性的特征,本申请设计了一个注意力增强约束LAE,通过让该约束变大来进一步增强有用信息并削弱背景等噪声信息,该约束的计算表达式如下:
(2-7)将在通道维度进行拼接,得到一个尺寸为C×H×W的特征图x′。最后,将x′经过聚合函数f(x)实现组间全局通道信息交互并得到最终的输出特征图xz,其中f(x)由一个1×1卷积、一个批量归一化和一个ReLU激活函数组成。
进一步的,为了减少参数量,所用到的d个特征增强模块共享嵌入函数α(x)和β(x)中的1×1卷积。
进一步的,所述局部关系模块用于挖掘部位之间的联系,其结构为:
(3-1)特征图x∈RC×H×W作为该模块的输入,经过三个1×1分组卷积得到三个特征图(xe,xf,xg)且xe和xf的通道数被降维至C′以减少计算复杂度。然后将xe、xf和xg的尺寸分别变形为N×C′、C′×N和C×N,其中N=H×W;
(3-2)特征图xe和xf通过矩阵乘法得到空间位置关系矩阵S∈RN×N,矩阵S中的元素表示了位置点之间的关系;关系矩阵S被均匀地划分为四个小块,其中矩阵S的左上角S1和右下角S4部分中的位置点分别属于上半车身和下半车身。而右上角S2和左下角S3部分中既有属于上半车身的位置点又有属于下半车身的位置点。由于一个部件区域内的位置联系更紧密一些,因此为了获得更多车身部位之间的关联,引入一个掩码M∈RN×N与S进行点乘得到新的关系矩阵S′。其中,该掩码的左上角和右下角部分的值都为0,剩余两部分的值都为1;
(3-3)矩阵S′经过softmax函数之后和特征图xg进行矩阵相乘得到关系特征图xh,xh的计算公式如下:
(3-4)最后将xh和原特征x相加获得最终的特征xz,则该特征被划分后的两个局部块中既包含了部位本身的局部信息又引入了大量部位间的关系信息,从而更好地区分相应部位具有相似属性的不同身份的车辆。
本发明的技术效果:
与现有技术相比,本发明的一种基于分组聚合注意力和局部关系的车辆重识别方法,通过两分支的网络从车辆图像中提取有效的全局级和局部级特征,从而提高车辆重识别任务的检索精度。本发明首先设计了一个分组聚合注意力机制来提取有区别的特征并抑制噪声信息。具体来说,该机制将特征图沿通道方向均匀划分为多个组,对每个组独立地进行特征增强,然后利用一种简单的聚合方式来实现跨组局部信息交互;对于特征增强,为了确定一个通道的重要性水平,利用适当的不同全局关系来有效地推断通道的注意权重;其次,本发明对特征增强模块中产生的注意力图施加一个注意力增强约束,该约束可以自适应调整通道的权重值,从而进一步增强鉴别性特征并抑制噪声信息,进而提高网络识别同一车辆的能力;最后本发明提出了一个局部关系模块,它在提取局部信息的同时考虑了大量的车辆部位之间的联系,使每个部分级特征都包含相应部位本身和与其密切相关的其他部位的信息,从而进一步提升了网络的性能。
附图说明
图1是本发明的车辆重识别方法的神经网络框架图;
图2是本发明的分组聚合注意力机制结构图;
图3是本发明的特征增强模块结构图;
图4是本发明的局部关系模块结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面结合说明书附图,对本发明实施例中的技术方案进行清楚、完整地描述。
实施例:
本实施例涉及的一种基于分组聚合注意力和局部关系的车辆重识别方法,包括以下步骤:
步骤1、采用Resnet50作为骨干网络,在res_conv4_1(ResNet-50的第4层的第1个块)残差块之后,Resnet50骨干网络被划分为两个分支;
步骤2、移除两个分支中的res_conv5_1(ResNet-50的第5层的第1个块)块的空间下采样操作,以丰富特征的粒度;
步骤3、对于全局分支,将分组聚合注意力机制添加到res_conv5块后,以增强显著信息并抑制噪声信息,该全局分支用于学习有效的全局级特征;对于局部分支,将res_conv5块产生的特征图输入到局部关系模块中,以获得更具鉴别性的局部级特征;
步骤4、利用全局平均池化层(GAP)将一个全局级特征和两个局部级特征池化到大小为2048×1×1的特征图,以用于训练中三元组损失的计算;
步骤5、通过由一个1×1卷积和一个批量归一化层BN组成的降维模块将三个2048维特征降到256维特征,每个256维的特征输入到一个全连接层(FC)中,以用于训练中交叉熵损失的计算;在测试阶段,所有被减少到256维的特征拼接到一起作为最终的特征表示,该特征结合了全局和局部信息从而拥有更强有力的鉴别性。
如图2所示,所述分组聚合注意力机制的完整架构为:
(2-1)特征图x∈RC×H×W作为组注意力模块的输入,其中C代表了通道的数量,H、W分别表示张量的高度和宽度。特征图x首先输入到一个分组数为d的1×1分组卷积中,然后将得到的特征图沿通道方向均匀划分为d组,本实施例取d的值为2;每组独立地输入到特征增强模块中,以得到强化后的特征图;
(2-2)对于特征增强模块,将特征图xi作为该模块的输入,其中 如图3所示,在特征增强模块中,特征图xi首先同时经过两个嵌入函数α(x)和β(x)分别得到张量A和B,其中这两个嵌入函数的结构相同,都由一个1×1卷积、一个批量归一化(BN)和一个ReLU激活函数组成;然后,将张量A和B的尺寸分别变形为(C/2)×HW和HW×(C/2),为了获得由通道间关系组成的矩阵将A和B进行矩阵乘法,xr的计算公式为式中,为矩阵乘法符号;(2-3)对矩阵xr进行关系融合操作,即对xr的每一行求均值,从而得到组内全局通道关系向量R。另外,由于xr中的值是由两个元素个数都为HW的向量通过点积操作得到的,因此为了防止H和W数值过大导致模型性能下降,本申请对向量R进行缩放点积操作,即将R中的每个元素除以向量R中的第i个元素的计算公式如下:
(2-4)紧接着,向量R通过一个全局关系交互操作得到一个新的通道向量R′。因为考虑R中每个关系及其k个临近关系来捕获局部跨关系交互信息可以更有效的推断通道的权重。具体来说,该全局关系交互操作通过一个卷积核大小为k、边缘填充(padding)圈数为2的快速1D卷积来实现,其中k作为一个超参数,代表了局部跨关系交互的覆盖率,本实施例取k的值为5;
(2-5)然后通过一个sigmoid函数来得到通道注意力图xp∈RC/d;另外,为了促使注意力模块提取到最具鉴别性的特征,本申请设计了一个注意力增强约束LAE,通过让注意力增强约束变大来进一步增强有用信息并削弱背景等噪声信息,该约束的计算表达式如下:
式中,“⊙”为元素点乘符号。
需要说明的是,为了减少参数量,x1和x2所用到的两个特征增强模块共享嵌入函数α(x)和β(x)中的1×1卷积;
(2-7)将和在通道维度进行拼接,得到一个尺寸为C×H×W的特征图x′。最后,将x′经过聚合函数f(x)实现组间全局通道信息交互并得到最终的输出特征图xz,其中f(x)由一个1×1卷积、一个批量归一化(BN)和一个ReLU激活函数组成。
所述局部关系模块用于挖掘部位之间的联系,其结构如图4所示:
(3-1)特征图x∈RC×H×W作为该模块的输入,经过三个1×1分组卷积得到三个特征图(xe,xf,xg)且xe和xf的通道数被降维至C′以减少计算复杂度。然后将xe、xf和xg的尺寸分别变形为N×C′、C′×N和C×N,其中N=H×W。
(3-2)特征图xe和xf通过矩阵乘法得到空间位置关系矩阵S∈RN×N。矩阵S中的元素表示了位置点之间的关系。如图3所示,关系矩阵S被均匀地划分为四个小块,其中矩阵S的左上角S1和右下角S4部分中的位置点分别属于上半车身和下半车身。而右上角S2和左下角S3部分中既有属于上半车身的位置点又有属于下半车身的位置点。由于一个部件区域内的位置联系更紧密一些,因此为了获得更多车身部位之间的关联,引入一个掩码M∈RN×N与S进行点乘得到新的关系矩阵S′。其中,该掩码的左上角和右下角部分的值都为0,剩余两部分的值都为1。
(3-3)矩阵S′经过softmax函数之后和特征图xg进行矩阵相乘得到关系特征图xh,xh的上半部分特征考虑了大量的上半车身和下半车身间的关系,下半部分特征则考虑了大量的下半车身和上半车身间的关系。这两种位置成对关系是不同的、非对称性的。xh的计算公式如下:
(3-4)最后将xh和原特征x相加获得最终的特征xz,则该特征被划分后的两个局部块中既包含了部位本身的局部信息又引入了大量部位间的关系信息,从而更好地区分相应部位具有相似属性的不同身份的车辆。
本发明基于分组聚合注意力机制和局部关系模块实现,所述的分组聚合注意力机制是将特征图沿通道方向均匀划分为多个组,对每个组独立地进行特征增强,然后利用一种简单的聚合方式来实现跨组局部信息交互。对于特征增强,为了确定一个通道的重要性水平,本发明利用适当的不同全局关系来有效地推断通道的注意权重。其次,本发明对注意力图施加一个注意力增强约束,该约束可以自适应调整通道的权重值,从而进一步增强鉴别性特征并抑制噪声信息,进而提高网络识别同一车辆的能力;所述的局部关系模块旨在挖掘更多有价值的部位间关系以区分相应部位具有相似属性的不同身份的车辆。
上述具体实施方式仅是本发明的具体个案,本发明的专利保护范围包括但不限于上述具体实施方式,任何符合本发明权利要求书且任何所属技术领域的普通技术人员对其所做的适当变化或修饰,皆应落入本发明的专利保护范围。
Claims (5)
1.一种基于分组聚合注意力和局部关系的车辆重识别方法,其特征在于,包括以下步骤:
步骤1、以车辆图像作为输入数据,采用Resnet50作为骨干网络,在res_conv4_1残差块之后,Resnet50骨干网络被划分为两个分支;
步骤2、移除两个分支中的res_conv5_1块的空间下采样操作;
步骤3、对于全局分支,将分组聚合注意力机制添加到res_conv5块后,以增强显著信息并抑制噪声信息,该全局分支用于学习有效的全局级特征;对于局部分支,将res_conv5块产生的特征图输入到局部关系模块中,以获得更具鉴别性的局部级特征;
步骤4、利用全局平均池化层将全局级特征和局部级特征池化到大小为2048×1×1的特征图,以用于三元组损失的计算;
步骤5、通过降维模块将2048维特征降到256维特征,每个256维的特征输入到一个全连接层中,以用于交叉熵损失的计算;基于以上得到的结果进行车辆重识别;
所述分组聚合注意力机制的完整架构为:
(2-1)特征图x∈RC×H×W作为分组聚合注意力机制的输入,其中C代表通道的数量,H、W分别表示张量的高度和宽度;特征图x首先输入到一个分组数为d的1×1分组卷积中,然后将得到的特征图沿通道方向均匀划分为d组,每组独立地输入到特征增强模块中,以得到强化后的特征图;
(2-2)对于特征增强模块,将特征图xi作为该模块的输入,其中在特征增强模块中,特征图xi首先同时经过两个嵌入函数α(x)和β(x)分别得到张量A和B;然后,将张量A和B的尺寸分别变形为(C/d)×HW和HW×(C/d),为了获得由通道间关系组成的矩阵将A和B进行矩阵乘法,xr的计算公式为式中,为矩阵乘法符号;
(2-4)紧接着,向量R通过一个全局关系交互操作得到一个新的通道向量R′;该全局关系交互操作通过一个卷积核大小为k、边缘填充圈数为2的快速1D卷积来实现,其中k作为一个超参数,代表局部跨关系交互的覆盖率;
(2-5)然后通过一个sigmoid函数来得到通道注意力图xp∈RC/d;设计一个注意力增强约束LAE,通过让注意力增强约束变大来进一步增强有用信息并削弱背景噪声信息,该约束的计算表达式如下:
(2-7)将在通道维度进行拼接,得到一个尺寸为C×H×W的特征图x′;最后,将x′经过聚合函数f(x)实现组间全局通道信息交互并得到最终的输出特征图xz,其中f(x)由一个1×1卷积、一个批量归一化和一个ReLU激活函数组成;
所述局部关系模块用于挖掘部位之间的联系,其结构为:
(3-1)特征图x∈RC×H×W作为该模块的输入,经过三个1×1分组卷积得到三个特征图(xe,xf,xg)且xe和xf的通道数被降维至C′以减少计算复杂度;然后将xe、xf和xg的尺寸分别变形为N×C′、C′×N和C×N,其中N=H×W;
(3-2)特征图xe和xf通过矩阵乘法得到空间位置关系矩阵S∈RN×N,矩阵S中的元素表示了位置点之间的关系;引入掩码M∈RN×N与S进行点乘得到新的关系矩阵S′,该掩码的左上角和右下角部分的值都为0,剩余两部分的值都为1;
(3-3)矩阵S′经过softmax函数之后和特征图xg进行矩阵相乘得到关系特征图xh,xh的计算公式如下:
(3-4)最后将xh和原特征x相加获得最终的特征xz。
2.根据权利要求1所述的基于分组聚合注意力和局部关系的车辆重识别方法,其特征在于,步骤5中,所述降维模块由一个1×1卷积和一个批量归一化层BN组成。
3.根据权利要求1所述的基于分组聚合注意力和局部关系的车辆重识别方法,其特征在于,在测试阶段,所有被减少到256维的特征拼接到一起作为最终的特征表示。
4.根据权利要求1所述的基于分组聚合注意力和局部关系的车辆重识别方法,其特征在于,所用到的d个特征增强模块共享嵌入函数α(x)和β(x)中的1×1卷积。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210776264.0A CN114821249B (zh) | 2022-07-04 | 2022-07-04 | 一种基于分组聚合注意力和局部关系的车辆重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210776264.0A CN114821249B (zh) | 2022-07-04 | 2022-07-04 | 一种基于分组聚合注意力和局部关系的车辆重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114821249A CN114821249A (zh) | 2022-07-29 |
CN114821249B true CN114821249B (zh) | 2022-09-20 |
Family
ID=82523044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210776264.0A Active CN114821249B (zh) | 2022-07-04 | 2022-07-04 | 一种基于分组聚合注意力和局部关系的车辆重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821249B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116311105B (zh) * | 2023-05-15 | 2023-09-19 | 山东交通学院 | 一种基于样本间上下文指导网络的车辆重识别方法 |
CN116644788B (zh) * | 2023-07-27 | 2023-10-03 | 山东交通学院 | 一种用于车辆重识别的局部细化和全局强化网络 |
CN116665019B (zh) * | 2023-07-31 | 2023-09-29 | 山东交通学院 | 一种用于车辆重识别的多轴交互多维度注意力网络 |
CN116704453B (zh) * | 2023-08-08 | 2023-11-28 | 山东交通学院 | 一种采用自适应划分和先验强化部位学习网络进行车辆重识别的方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112801235A (zh) * | 2021-04-12 | 2021-05-14 | 四川大学 | 模型训练方法、预测方法、装置、重识别模型及电子设备 |
WO2021120157A1 (en) * | 2019-12-20 | 2021-06-24 | Intel Corporation | Light weight multi-branch and multi-scale person re-identification |
CN114495170A (zh) * | 2022-01-27 | 2022-05-13 | 重庆大学 | 一种基于局部抑制自注意力的行人重识别方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902658A (zh) * | 2019-03-15 | 2019-06-18 | 百度在线网络技术(北京)有限公司 | 行人特征识别方法、装置、计算机设备和存储介质 |
CN113792686B (zh) * | 2021-09-17 | 2023-12-08 | 中南大学 | 基于视觉表征跨传感器不变性的车辆重识别方法 |
-
2022
- 2022-07-04 CN CN202210776264.0A patent/CN114821249B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021120157A1 (en) * | 2019-12-20 | 2021-06-24 | Intel Corporation | Light weight multi-branch and multi-scale person re-identification |
CN112801235A (zh) * | 2021-04-12 | 2021-05-14 | 四川大学 | 模型训练方法、预测方法、装置、重识别模型及电子设备 |
CN114495170A (zh) * | 2022-01-27 | 2022-05-13 | 重庆大学 | 一种基于局部抑制自注意力的行人重识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114821249A (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114821249B (zh) | 一种基于分组聚合注意力和局部关系的车辆重识别方法 | |
Chen et al. | Combining fully convolutional and recurrent neural networks for 3d biomedical image segmentation | |
CN111310773B (zh) | 一种高效的卷积神经网络的车牌定位方法 | |
Long et al. | Fully convolutional networks for semantic segmentation | |
Thai et al. | Image classification using support vector machine and artificial neural network | |
CN108875076B (zh) | 一种基于Attention机制和卷积神经网络的快速商标图像检索方法 | |
CN112818862A (zh) | 基于多源线索与混合注意力的人脸篡改检测方法与系统 | |
CN111738303B (zh) | 一种基于层次学习的长尾分布图像识别方法 | |
CN108491856B (zh) | 一种基于多尺度特征卷积神经网络的图像场景分类方法 | |
CN111523546A (zh) | 图像语义分割方法、系统及计算机存储介质 | |
Arkin et al. | A survey of object detection based on CNN and transformer | |
CN110866938B (zh) | 一种全自动视频运动目标分割方法 | |
CN113743269B (zh) | 一种轻量化识别视频人体姿态的方法 | |
CN112489050A (zh) | 一种基于特征迁移的半监督实例分割算法 | |
CN110738663A (zh) | 双域适应模块金字塔型网络及无监督域适应图像分割方法 | |
CN111401380A (zh) | 一种基于深度特征增强和边缘优化的rgb-d图像语义分割方法 | |
CN113674334A (zh) | 基于深度自注意力网络和局部特征编码的纹理识别方法 | |
CN112580480A (zh) | 一种高光谱遥感影像分类方法及装置 | |
CN111899203A (zh) | 基于标注图在无监督训练下的真实图像生成方法及存储介质 | |
CN117197763A (zh) | 基于交叉注意引导特征对齐网络的道路裂缝检测方法和系统 | |
CN116740439A (zh) | 一种基于跨尺度金字塔Transformer的人群计数方法 | |
Ge et al. | WGI-Net: A weighted group integration network for RGB-D salient object detection | |
CN111882053A (zh) | 一种基于拼接卷积的神经网络模型压缩方法 | |
CN117274608B (zh) | 基于空间细节感知和注意力引导的遥感图像语义分割方法 | |
CN117037119A (zh) | 基于改进YOLOv8的道路目标检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |