CN110738146B - 一种目标重识别神经网络及其构建方法和应用 - Google Patents
一种目标重识别神经网络及其构建方法和应用 Download PDFInfo
- Publication number
- CN110738146B CN110738146B CN201910925813.4A CN201910925813A CN110738146B CN 110738146 B CN110738146 B CN 110738146B CN 201910925813 A CN201910925813 A CN 201910925813A CN 110738146 B CN110738146 B CN 110738146B
- Authority
- CN
- China
- Prior art keywords
- branch
- neural network
- target
- deep neural
- complementarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明提供一种目标重识别深度神经网络及其构建方法和应用,方法包括:构建深度神经网络,其包括多分支注意力机制网络;采用深度神经网络,提取训练集中每个图像样本的融合特征并采集各分支提取的该图像样本的分支特征;基于所有融合特征和分支特征,采用多种损失函数和正则项约束,调整深度神经网络参数并重复提取特征,完成网络构建;其中,正则项约束用于约束各分支间的空间注意力互补性和特征空间互补性。本发明在卷积神经网络中引入多分支的注意力机制,并通过正则项约束,用于约束各分支间的空间注意力互补性和特征空间互补性,增强各分支之间特征提取的互补性和多样性,有效提高目标重识别的精确度。
Description
技术领域
本发明属于目标重识别领域,更具体地,涉及一种目标重识别神经网络及其构建方法和应用。
背景技术
行人重识别是指根据输入行人的图像,在无交叉视角的摄像头监控系统中检索出该行人的其他图像。该技术在搜索嫌疑目标、失踪人员的查找以及跨摄像头目标跟踪领域有着广泛的应用前景,目前逐渐成为计算机视觉领域的研究热点。行人重识别的核心难点在于,受摄像机视角变化、行人姿态变化、光线亮度变化以及遮挡等因素的影响,使得同一行人在不同摄像头下的图像差异很大。
行人重识别属于细粒度任务,局部的细节能够更好地区分不同行人。但在解决局部特征提取过程中,存在不对齐以及遮挡等问题,现有的自注意力机制模块能够提取到比较有区分力的特征,在使用多分支注意力机制网络可以获取不同特征子空间信息,然而不同分支关注的特征容易存在冗余,这不仅影响各分支提取特征的多样性,进而降低重识别的精度,还会极大降低计算效率。
发明内容
本发明提供一种目标重识别神经网络及其构建方法和应用,用以解决现有目标重识别方法存在所提取特征不够多样性导致目标重识别精度不够高的技术问题。
本发明解决上述技术问题的技术方案如下:一种目标重识别深度神经网络构建方法,包括:
S1、构建深度神经网络,其包括多分支注意力机制网络;
S2、采用所述深度神经网络,提取训练集中每个图像样本的融合特征并采集各分支提取的该图像样本的分支特征;
S3、基于所有所述融合特征和所述分支特征,采用多种损失函数和正则项约束,调整所述深度神经网络参数并重复执行S2,直至达到终止条件,完成网络构建;其中,所述正则项约束用于约束各分支间的空间注意力互补性和特征空间互补性。
本发明的有益效果是:本发明在卷积神经网络中引入注意力机制,从而促进了网络提取更有效并且低维的特征,并且提高了识别精度。进一步本发明设计多分支的注意力机制,每个分支都能够提取到比较有区分力的局部特征。而为了使这些局部特征互相之间尽量不重复,以避免注意力机制中存在的冗余特征现象并提高重识别的灵敏度和精度,本发明通过正则项约束,增强各分支之间特征提取的互补性,包括各分支间的空间注意力互补性和特征空间互补性,减少不同分支特征的重叠冗余,增加了神经网络特征提取的多样性,因此,该方法增强了注意力机制互补性,能够有效提高目标重识别的精确度。
上述技术方案的基础上,本发明还可以做如下改进。
进一步,所述S1包括:
在移除尾层的预训练的残差网络输出端,并列连接多分支注意力机制网络,每个分支包括依次连接的注意力机制模块、多个卷积层及全局平均池化层;其中,所述注意力机制模块的输入端与所述输出端连接,每个分支的参数按照实际需要初始化,完成深度神经网络的构建。
本发明的进一步有益效果是:将残差网络的最后一层移除,并在倒数第二层的输出端并列连接多分支注意力机制网络,每个注意力机制模块后续设置有多个卷积层和全局平均池化层,以调整和进一步提取注意力机制模块输出的特征,提高重识别精度。其中,构建得到的深度神经网络中残差网络部分的参数可以采用经过预训练的残差网络的参数值进行赋值,后面多分支注意力机制网络的参数可以根据实际情况初始化。
进一步,所述注意力机制模块包括依次连接的降采样结构、自注意力机制模块和升采样结构。
本发明的进一步有益效果是:在自注意力机制的头部添加降采样结构、尾部添加升采样结构,大大降低了特征维度,在保持精度的同时降低了计算成本、提高了计算效率。另外,降低特征维度能够进一步减少注意力相似关系之间的重复,增强注意力机制互补性,同时使得网络更易于优化。
进一步,每个所述图像样本的所述融合特征为该图像样本的各分支特征通过加权求和得到;其中,各分支特征的权重参数为所述深度神经网络的待优化参数。
本发明的进一步有益效果是:引入了一个权重网络,为不同的分支分配不同的权重,使显著特征得到进一步加强,能够极大提高深度神经网络的重识别性能。另外,基于各分支特征融合得到的融合特征,维度较低,能够极大提高识别检索效率。
进一步,所述多种损失函数包括:
三元组损失函数,用于计算每个分支下所有图像样本的分支特征之间的三元组损失值;
交叉熵损失函数,用于计算所有图像样本的融合特征之间的交叉熵损失函数值;
相对熵损失函数,用于计算每个图像样本在每两个分支特征下的注意力相似关系矩阵之间的相对熵损失值。
进一步,所述正则项约束包括:
空间互补性的正则项约束,其基于所有所述相对熵损失值计算;
特征空间互补性的正则项约束,其基于每个图像样本的由其所有分支特征拼接而成的特征矩阵计算,其中,每两个分支特征互相正交。
本发明的进一步有益效果是:为了使各分支提取的局部特征互相之间尽量不重复,引入两种正则项:一种是相互的相对熵正则项,约束了注意力相似关系矩阵的互补性;另一种是正交化正则项,约束了特征空间的互补性。通过正则项约束每个分支的注意力相似关系矩阵以及最终的特征表达,从而减少了不同分支特征的冗余,增强了特征的互补性及多样性,提升了行人重识别的准确率。
进一步,所述S3中,所述调整所述深度神经网络参数,具体为:
计算所述三元组损失值、所述交叉熵损失函数值、所述空间互补性的正则项约束和所述特征空间互补性的正则项约束的加和,并以所述加和最小为目标,调整所述深度神经网络参数。
本发明还提供一种目标重识别神经网络,基于如上所述的任一种目标重识别神经网络构建方法构建得到。
本发明的有益效果是:本发明在卷积神经网络中引入注意力机制,使得神经网络能够提取更有效并且低维的特征,并且提高了识别精度。进一步神经网络中的注意力机制具有多分支,每个分支都能够提取到比较有区分力的局部特征。这些多分支通过正则项约束(包括各分支间的空间注意力互补性和特征空间互补性),各分支之间提取特征的互补性较强,减少不同分支特征的重叠冗余,具有将高的特征提取多样性。因此,本发明神经网络具有较强的注意力机制互补性,目标重识别精确度较高。
本发明还提供一种目标重识别方法,包括:
采用如上所述的目标重识别神经网络,分别提取待测目标图像和测试集中各图像样本的融合特征;
分别计算所述待测目标图像的融合特征与所述测试集对应的各融合特征之间的相似度得分;
对所有所述相似度得分排序,完成目标重识别。
本发明的有益效果是:本发明采用上述训练得到的神经网络,各分支提取特征具有多样性和互补性,使得采用融合特征进行相似度计算,得到的识别结果精确度较高。
本发明还提供一种存储介质,所述存储介质中存储有指令,当计算机读取所述指令时,使所述计算机执行如上述任一种目标重识别神经网络构建方法和/或如上所述的一种目标重识别方法。
附图说明
图1为本发明实施例提供的一种目标重识别深度神经网络构建方法的流程框图;
图2为本发明实施例提供的一种目标重识别深度神经网络框图示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
实施例一
一种目标重识别深度神经网络构建方法100,如图1所示,包括:
步骤110、构建深度神经网络,其包括多分支注意力机制网络;
步骤120、采用深度神经网络,提取训练集中每个图像样本的融合特征并采集各分支提取的该图像样本的分支特征;
步骤130、基于所有融合特征和分支特征,采用多种损失函数和正则项约束,调整深度神经网络参数并重复执行步骤120,直至达到终止条件,完成网络构建;其中,正则项约束用于约束各分支间的空间注意力互补性和特征空间互补性。
在卷积神经网络中引入注意力机制,从而促进了网络提取更有效并且低维的特征,并且提高了识别精度。进一步设计多分支的注意力机制,每个分支都能够提取到比较有区分力的局部特征。而为了使这些局部特征互相之间尽量不重复,以避免注意力机制中存在的冗余特征现象并提高重识别的灵敏度和精度,通过正则项约束,增强各分支之间特征提取的互补性,包括各分支间的空间注意力互补性和特征空间互补性,减少不同分支特征的重叠冗余,增加了神经网络特征提取的多样性,因此,该方法增强了注意力机制互补性,能够有效提高目标重识别的精确度。
优选的,如图2所示,步骤110包括:
在移除尾层的预训练的残差网络输出端,并列连接多分支注意力机制网络,每个分支包括依次连接的注意力机制模块、多个卷积层及全局平均池化层;其中,注意力机制模块的输入端与输出端连接,每个分支的参数按照实际需要初始化,完成深度神经网络的构建。
例如,具体步骤可为:
使用残差网络50作为多分支注意力机制网络的主干网络并移除残差网络50最后两个卷积层和全连接层,得到修改后的残差网络;
在修改后的残差网络之后添加多个分支,每个分支包括注意力机制模块、三个卷积层以及全局平均池化层,构成多分支注意力机制网络。
将残差网络的最后一层移除,并在倒数第二层的输出端并列连接多分支注意力机制网络,每个注意力机制模块后续设置有多个卷积层和全局平均池化层,以调整和进一步提取注意力机制模块输出的特征,提高重识别精度。其中,构建得到的深度神经网络中残差网络部分的参数可以采用经过预训练的残差网络的参数值进行赋值,后面多分支注意力机制网络的参数可以根据实际情况初始化。
优选的,注意力机制模块包括依次连接的降采样结构、自注意力机制模块和升采样结构。
搭建注意力机制模块的具体步骤可为:
使用自注意力机制作为注意力模块的基础网络构成;基于自注意力机制,在初始部分加入降采样结构,结尾部分再加入升采样结构,构成注意力模块。
在自注意力机制的头部添加降采样结构、尾部添加升采样结构,大大降低了特征维度,在保持精度的同时降低了计算成本、提高了计算效率。另外,降低特征维度能够进一步减少注意力相似关系之间的重复,增强注意力机制互补性,同时使得网络更易于优化。
优选的,每个图像样本的融合特征为该图像样本的各分支特征通过加权求和得到;其中,各分支特征的权重参数为深度神经网络的待优化参数。
具体计算可为:
将多个注意力机制分支网络提取到的特征进行融合,之后,得到行人的深度特征表达:F=∑iwi Fi;其中,Fi为每个分支的特征,wi是每个分支特征的权重,由网络学习可得,F为总特征(即融合特征)。
本方法是一种自适应特征融合方式,使得原始的多分支特征通过自适应融合之后,可以进一步降为至低维(如256)特征,从而大大提升了检索效率。
引入了一个权重网络,为不同的分支分配不同的权重,使显著特征得到进一步加强,能够极大提高深度神经网络的重识别性能。另外,基于各分支特征融合得到的融合特征,维度较低,能够极大提高识别检索效率。
优选的,多种损失函数包括:三元组损失函数,交叉熵损失函数,相对熵损失函数。
三元组损失函数用于计算每个分支下所有图像样本的分支特征之间的三元组损失值;交叉熵损失函数用于计算所有图像样本的融合特征之间的交叉熵损失函数值;相对熵损失函数用于计算每个图像样本在每两个分支特征下的注意力相似关系矩阵之间的相对熵损失值。
具体的,使用三元组损失L1作为每个分支特征的损失函数,使用交叉熵损失L2作为多个分支融合后总特征的损失函数;
其中,P是每个训练批次的类别数,K是每个类别的样本数。fi是第i个图片的特征,yi是第i个图片对应的类别,Nid是总的样本数,Wk是训练后类别k的权重矩阵(Wk的定义是一个泛指的定义,和都可以带入的,不用重新定义)
优选的,如图2所示,正则项约束包括:空间互补性的正则项约束,其基于所有上述相对熵损失值计算;特征空间互补性的正则项约束,其基于每个图像样本的由其所有分支特征拼接而成的特征矩阵计算,其中,每两个分支特征互相正交。
使用相对熵作用于每个分支的注意力相似关系矩阵,作为空间互补性的正则项约束D1;使每个分支的特征互相正交,作为特征空间互补性的正则项约束D2。
D2=||FFT-I||2
其中,F是每个分支特征Fi拼接的特征矩阵,||·||2代表矩阵的L2正则化,I是单位矩阵。
为了使各分支提取的局部特征互相之间尽量不重复,引入两种正则项:一种是相互的相对熵正则项,约束了注意力相似关系矩阵的互补性;另一种是正交化正则项,约束了特征空间的互补性。通过正则项约束每个分支的注意力相似关系矩阵以及最终的特征表达,从而减少了不同分支特征的冗余,增强了特征的互补性及多样性,提升了行人重识别的准确率。
优选的,步骤130中,上述调整深度神经网络参数,具体为:
计算三元组损失值、交叉熵损失函数值、空间互补性的正则项约束和特征空间互补性的正则项约束的加和,并以加和最小为目标,调整深度神经网络参数。
最终的总损失函数表达式为:L=L1+L2+D1+D2。
基于增强注意力机制互补性网络的构建中,为了使多分支注意力机制网络所提取的局部特征尽量不重复,设计了两种正则项:一种是相互的交叉熵正则项,约束了注意力相似关系矩阵的互补性;另一种是正交化正则项,约束了特征空间的互补性。同时设计了一个权重网络,为不同的分支分配不同的权重,使显著特征得到进一步加强,同时也大大降低了特征维度,提升了检索效率,在保持精度的同时降低了计算成本。本发明在卷积神经网络中结合了注意力机制,从而促进了网络提取更有效并且低维的特征,并且提高了识别精度。
实施例二
一种目标重识别神经网络,如图2所示,基于如上实施例一所述的任一种目标重识别神经网络构建方法构建得到。
在卷积神经网络中引入注意力机制,使得神经网络能够提取更有效并且低维的特征,并且提高了识别精度。进一步神经网络中的注意力机制具有多分支,每个分支都能够提取到比较有区分力的局部特征。这些多分支通过正则项约束(包括各分支间的空间注意力互补性和特征空间互补性),各分支之间提取特征的互补性较强,减少不同分支特征的重叠冗余,具有将高的特征提取多样性。因此,该实施例神经网络具有较强的注意力机制互补性,目标重识别精确度较高。
相关技术方案同实施例一,在此不再赘述。
实施例三
一种目标重识别方法,包括:
采用如上实施例二所述的目标重识别神经网络,分别提取待测目标图像和测试集中各图像样本的融合特征;分别计算待测目标图像的融合特征与所述测试集对应的各融合特征之间的相似度得分;对所有相似度得分排序,完成目标重识别。
具体的可为:
将待查询图像送入训练完成的基于增强注意力机制互补性的深度神经网络,分别从每个分支提取特征,将得到的各个特征进行融合作为查询图像的最终特征;基于待查询图像与搜索库中行人图像的特征向量,计算两者的相似度得分;利用相似度得分对待查询图像进行匹配,获得匹配结果。
采用上述训练得到的神经网络,各分支提取特征具有多样性和互补性,使得采用融合特征进行相似度计算,得到的识别结果精确度较高。
相关技术方案同实施例一,在此不再赘述。
实施例四
一种存储介质,存储介质中存储有指令,当计算机读取所述指令时,使所述计算机执行如上实施例一所述任一种目标重识别神经网络构建方法和/或如上实施例三所述的一种目标重识别方法。
相关技术方案同实施例一,在此不再赘述。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种目标重识别深度神经网络构建方法,其特征在于,包括:
S1、构建深度神经网络,其包括多分支注意力机制网络;
S2、采用所述深度神经网络,提取训练集中每个图像样本的融合特征并采集各分支提取的该图像样本的分支特征;
S3、基于所有所述融合特征和所述分支特征,采用多种损失函数和正则项约束,调整所述深度神经网络参数并重复执行S2,直至达到终止条件,完成网络构建;其中,所述正则项约束用于约束各分支间的空间注意力互补性和特征空间互补性;
所述多种损失函数包括:
三元组损失函数,用于计算每个分支下所有图像样本的分支特征之间的三元组损失值;
交叉熵损失函数,用于计算所有图像样本的融合特征之间的交叉熵损失函数值;
相对熵损失函数,用于计算每个图像样本在每两个分支特征下的注意力相似关系矩阵之间的相对熵损失值;
所述正则项约束包括:
空间互补性的正则项约束,其基于所有所述相对熵损失值计算;
特征空间互补性的正则项约束,其基于每个图像样本的由其所有分支特征拼接而成的特征矩阵计算,其中,每两个分支特征互相正交;
所述S3中,所述调整所述深度神经网络参数,具体为:
计算所述三元组损失值、所述交叉熵损失函数值、所述空间互补性的正则项约束和所述特征空间互补性的正则项约束的加和,并以所述加和最小为目标,调整所述深度神经网络参数。
2.根据权利要求1所述的一种目标重识别深度神经网络构建方法,其特征在于,所述S1包括:
在移除尾层的预训练的残差网络输出端,并列连接多分支注意力机制网络,每个分支包括依次连接的注意力机制模块、多个卷积层及全局平均池化层;其中,所述注意力机制模块的输入端与所述输出端连接,每个分支的参数按照实际需要初始化,完成深度神经网络的构建。
3.根据权利要求2所述的一种目标重识别深度神经网络构建方法,其特征在于,所述注意力机制模块包括依次连接的降采样结构、自注意力机制模块和升采样结构。
4.根据权利要求1所述的一种目标重识别深度神经网络构建方法,其特征在于,每个所述图像样本的所述融合特征为该图像样本的各分支特征通过加权求和得到;其中,各分支特征的权重参数为所述深度神经网络的待优化参数。
5.一种目标重识别方法,其特征在于,包括:
采用如权利要求1至4任一项所述的目标重识别深度神经网络构建方法构建得到的目标重识别深度神经网络,分别提取待测目标图像和测试集中各图像样本的融合特征;
分别计算所述待测目标图像的融合特征与所述测试集对应的各融合特征之间的相似度得分;
对所有所述相似度得分排序,完成目标重识别。
6.一种存储介质,其特征在于,所述存储介质中存储有指令,当计算机读取所述指令时,使所述计算机执行上述如权利要求1至4任一项所述的一种目标重识别深度神经网络构建方法和/或如权利要求5所述的一种目标重识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910925813.4A CN110738146B (zh) | 2019-09-27 | 2019-09-27 | 一种目标重识别神经网络及其构建方法和应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910925813.4A CN110738146B (zh) | 2019-09-27 | 2019-09-27 | 一种目标重识别神经网络及其构建方法和应用 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110738146A CN110738146A (zh) | 2020-01-31 |
CN110738146B true CN110738146B (zh) | 2020-11-17 |
Family
ID=69269737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910925813.4A Active CN110738146B (zh) | 2019-09-27 | 2019-09-27 | 一种目标重识别神经网络及其构建方法和应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110738146B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931641B (zh) * | 2020-08-07 | 2023-08-22 | 华南理工大学 | 基于权重多样性正则化的行人重识别方法及其应用 |
CN112101265B (zh) * | 2020-09-22 | 2023-04-25 | 四川大学 | 一种鲁棒的作物病害诊断系统 |
CN112488990A (zh) * | 2020-11-02 | 2021-03-12 | 东南大学 | 一种基于注意力正则化机制的桥梁支座病害识别方法 |
CN112560656B (zh) * | 2020-12-11 | 2024-04-02 | 成都东方天呈智能科技有限公司 | 一种联合注意力机制端到端训练的行人多目标跟踪方法 |
CN112766156B (zh) * | 2021-01-19 | 2023-11-03 | 南京中兴力维软件有限公司 | 一种骑行属性识别方法及装置、存储介质 |
CN112800801B (zh) * | 2021-02-03 | 2022-11-11 | 珠海格力电器股份有限公司 | 图像中的图形识别方法、装置、计算机设备和存储介质 |
CN112906557B (zh) * | 2021-02-08 | 2023-07-14 | 重庆兆光科技股份有限公司 | 一种多视角下的多粒度特征聚合目标重识别方法及系统 |
CN113222919A (zh) * | 2021-04-30 | 2021-08-06 | 烟台市计量所 | 基于多分支注意力金字塔结构的工业焊缝缺陷检测方法 |
CN113283320A (zh) * | 2021-05-13 | 2021-08-20 | 桂林安维科技有限公司 | 一种基于通道特征聚合的行人重识别方法 |
CN113420814B (zh) * | 2021-06-23 | 2022-03-22 | 推想医疗科技股份有限公司 | 一种肺疾病检测模型的训练方法、装置、设备和介质 |
CN113283394B (zh) * | 2021-06-28 | 2023-04-25 | 苏州大学 | 一种融合上下文信息的行人重识别方法及系统 |
CN113255604B (zh) * | 2021-06-29 | 2021-10-15 | 苏州浪潮智能科技有限公司 | 基于深度学习网络的行人重识别方法、装置、设备及介质 |
CN113378984B (zh) * | 2021-07-05 | 2023-05-02 | 国药(武汉)医学实验室有限公司 | 一种医学图像分类方法、系统、终端以及存储介质 |
CN114241278B (zh) * | 2021-12-29 | 2024-05-07 | 北京工业大学 | 一种多分支的行人重识别方法和系统 |
CN114005078B (zh) * | 2021-12-31 | 2022-03-29 | 山东交通学院 | 一种基于双关系注意力机制的车辆重识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729818A (zh) * | 2017-09-21 | 2018-02-23 | 北京航空航天大学 | 一种基于深度学习的多特征融合车辆重识别方法 |
US10176405B1 (en) * | 2018-06-18 | 2019-01-08 | Inception Institute Of Artificial Intelligence | Vehicle re-identification techniques using neural networks for image analysis, viewpoint-aware pattern recognition, and generation of multi- view vehicle representations |
CN109784258A (zh) * | 2019-01-08 | 2019-05-21 | 华南理工大学 | 一种基于多尺度特征切割与融合的行人重识别方法 |
CN109800624A (zh) * | 2018-11-27 | 2019-05-24 | 上海眼控科技股份有限公司 | 一种基于行人重识别的多目标跟踪方法 |
CN110188829A (zh) * | 2019-05-31 | 2019-08-30 | 北京市商汤科技开发有限公司 | 神经网络的训练方法、目标识别的方法及相关产品 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11188783B2 (en) * | 2017-10-19 | 2021-11-30 | Nokia Technologies Oy | Reverse neural network for object re-identification |
CN110110642B (zh) * | 2019-04-29 | 2020-12-22 | 华南理工大学 | 一种基于多通道注意力特征的行人重识别方法 |
-
2019
- 2019-09-27 CN CN201910925813.4A patent/CN110738146B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729818A (zh) * | 2017-09-21 | 2018-02-23 | 北京航空航天大学 | 一种基于深度学习的多特征融合车辆重识别方法 |
US10176405B1 (en) * | 2018-06-18 | 2019-01-08 | Inception Institute Of Artificial Intelligence | Vehicle re-identification techniques using neural networks for image analysis, viewpoint-aware pattern recognition, and generation of multi- view vehicle representations |
CN109800624A (zh) * | 2018-11-27 | 2019-05-24 | 上海眼控科技股份有限公司 | 一种基于行人重识别的多目标跟踪方法 |
CN109784258A (zh) * | 2019-01-08 | 2019-05-21 | 华南理工大学 | 一种基于多尺度特征切割与融合的行人重识别方法 |
CN110188829A (zh) * | 2019-05-31 | 2019-08-30 | 北京市商汤科技开发有限公司 | 神经网络的训练方法、目标识别的方法及相关产品 |
Non-Patent Citations (2)
Title |
---|
Salient color names for person re-identification;Yang Y等;《ECCV》;20141231;全文 * |
基于CNN的改进行人重识别技术;熊炜等;《计算机工程与科学》;20190430;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110738146A (zh) | 2020-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110738146B (zh) | 一种目标重识别神经网络及其构建方法和应用 | |
CN108830296B (zh) | 一种改进的基于深度学习的高分遥感影像分类方法 | |
CN111489358B (zh) | 一种基于深度学习的三维点云语义分割方法 | |
CN111950453B (zh) | 一种基于选择性注意力机制的任意形状文本识别方法 | |
CN111259786B (zh) | 一种基于视频的外观和运动信息同步增强的行人重识别方法 | |
CN111767882A (zh) | 一种基于改进yolo模型的多模态行人检测方法 | |
CN111507217A (zh) | 一种基于局部分辨特征融合的行人重识别方法 | |
CN112633382B (zh) | 一种基于互近邻的少样本图像分类方法及系统 | |
CN110705566B (zh) | 一种基于空间金字塔池的多模态融合显著性检测方法 | |
CN116775922A (zh) | 基于语言与视觉细节特征融合的遥感图像跨模态检索方法 | |
CN115171165A (zh) | 全局特征与阶梯型局部特征融合的行人重识别方法及装置 | |
CN112766378A (zh) | 一种专注细粒度识别的跨域小样本图像分类模型方法 | |
CN110222568B (zh) | 一种基于时空图的跨视角步态识别方法 | |
CN115841683A (zh) | 一种联合多级特征的轻量行人重识别方法 | |
CN112613474B (zh) | 一种行人重识别的方法和装置 | |
WO2022134104A1 (en) | Systems and methods for image-to-video re-identification | |
CN109241315A (zh) | 一种基于深度学习的快速人脸检索方法 | |
CN116168418A (zh) | 一种图像的多模态目标感知与重识别方法 | |
CN116311384A (zh) | 基于中间模态和表征学习的跨模态行人重识别方法、装置 | |
CN115861595A (zh) | 一种基于深度学习的多尺度域自适应异源图像匹配方法 | |
CN113887653B (zh) | 一种基于三元网络的紧耦合弱监督学习的定位方法及系统 | |
CN113032612B (zh) | 一种多目标图像检索模型的构建方法及检索方法和装置 | |
CN115063831A (zh) | 一种高性能行人检索与重识别方法及装置 | |
CN114663974A (zh) | 一种融入位置感知注意力的行人重识别方法 | |
Guo et al. | Pixel distillation: A new knowledge distillation scheme for low-resolution image recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |