CN110543823A - 基于残差网络的行人再识别方法、装置和计算机设备 - Google Patents
基于残差网络的行人再识别方法、装置和计算机设备 Download PDFInfo
- Publication number
- CN110543823A CN110543823A CN201910696302.XA CN201910696302A CN110543823A CN 110543823 A CN110543823 A CN 110543823A CN 201910696302 A CN201910696302 A CN 201910696302A CN 110543823 A CN110543823 A CN 110543823A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- identification
- data
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000004364 calculation method Methods 0.000 claims abstract description 80
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims abstract description 30
- 238000012549 training Methods 0.000 claims description 51
- 239000013598 vector Substances 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 18
- 238000013507 mapping Methods 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 12
- 238000012795 verification Methods 0.000 claims description 12
- 238000012821 model calculation Methods 0.000 claims description 10
- 230000001815 facial effect Effects 0.000 claims description 9
- 230000009467 reduction Effects 0.000 claims description 8
- 238000011478 gradient descent method Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000013075 data extraction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请揭示了一种基于残差网络的行人再识别方法、装置、计算机设备和存储介质,所述方法包括:获取行人再识别的指令,其中所述行人再识别的指令携带有待识别的指定行人的图像;将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像;获得所述第五个残差块输出的主数据;获得所述全局识别子网络输出的全局子数据;获得所述局部识别子网络输出的局部子数据;将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果。从而提高了行人再识别的准确性。
Description
技术领域
本申请涉及到计算机领域,特别是涉及到一种基于残差网络的行人再识别方法、装置、计算机设备和存储介质。
背景技术
行人再识别,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术。可用于对监控获得的行人图像的识别,可弥补肉眼识别行人图像不准确的缺陷,可广泛应用于智能视频监控等领域。其中,行人再识别模型能否得到准确的识别结果,取决于采用的神经网络模型,而普通的神经网络模型由于在网络层数过多时,训练效果很差,无法胜任准确识别的任务。残差网络是一种深度卷积网络,能够解决增加网络层数带来的训练效果弱化的问题,可能够提高行人再识别模型的识别准确度。但是,传统技术中使用残差网络,仅是利用残差网络最后一层输出的数据,并没有考虑到主干网络的其他层输出的特征图提取到的低级特征,而网络在经过层层处理之后,输入图像的细节特征会相应丢失,从而获取到的特征会更加抽象,以至于在做匹配特征的时候会出现误差。因此传统技术的行人再识别模型的识别准确度有待提高。
发明内容
本申请的主要目的为提供一种基于残差网络的行人再识别方法、装置、计算机设备和存储介质,旨在提高行人再识别的识别准确度。
为了实现上述发明目的,本申请提出一种基于残差网络的行人再识别方法,包括以下步骤:
获取行人再识别的指令,其中所述行人再识别的指令携带有待识别的指定行人的图像;
将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成;
将所述特征图像输入所述残差网络中的第五个残差块中计算,从而获得所述第五个残差块输出的主数据;以及并行地将所述特征图像输入所述行人再识别模型中预设的全局识别子网络中计算,从而获得所述全局识别子网络输出的全局子数据;以及并行地将所述特征图像输入所述行人再识别模型中的预设的局部识别子网络中计算,从而获得所述局部识别子网络输出的局部子数据;
将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果。
进一步地,所述指定行人的图像包括面部区域,所述将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成的步骤之前,包括:
将所述指定行人的图像划分为多个区域,将每个区域的图像数据与预设的眼睛图像数据进行对比,得到每个区域图像数据与眼睛图像数据的差值,将差值不超过预设数值的区域记为眼睛区域;
将每个区域的图像数据与预设的嘴巴图像数据进行比较,得到每个区域图像数据与嘴巴图像数据的差值,将差值不超过预设数值的区域记为嘴巴区域;
调用标准面部图像,并通过等比例缩小或者放大操作,使所述标准面部图像中的眼睛区域与所述指定行人的图像中的眼睛区域重合,同时使所述标准面部图像中的嘴巴区域与所述指定行人的图像中的嘴巴区域重合,再将所述指定行人的图像中与经过所述等比例缩小或者放大操作后的标准面部图像重叠的区域记为面部区域,并将所述面部区域范围内的图像作为面部图像;
采用预设的图像相似度计算方法,计算所述面部图像与预存的目标面部图像的相似度值,并判断所述相似度值是否大于预设的相似度阈值;
若所述相似度值不大于预设的相似度阈值,则生成行人再识别模型计算指令,其中所述行人再识别模型计算指令用于指示将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算。
进一步地,所述将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成的步骤之前,包括:
获取指定量的样本数据,并将样本数据分成训练集和测试集;其中,所述样本数据包括行人图像,以及与行人图像关联的识别结果;
将训练集的样本数据输入到基于残差网络的初始行人再识别模型中进行训练;其中,训练的过程中采用随机梯度下降法,得到结果训练模型;
利用所述测试集的样本数据验证所述结果训练模型;
如果验证通过,则将所述结果训练模型记为所述基于残差网络的行人再识别模型。
进一步地,所述将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成的步骤之前,包括:
获取已经训练完成的残差网络模型的各层权重参数;
将所述各层权重参数初始化为初始行人再识别模型中的残差网络中的各层初始权重参数;
利用测试集的样本数据验证所述初始行人再识别模型,其中,所述样本数据包括行人图像,以及与行人图像关联的识别结果;
若验证通过,则将所述初始行人再识别模型记为所述基于残差网络的行人再识别模型。
进一步地,所述将所述特征图像输入所述行人再识别模型中预设的全局识别子网络中计算,从而获得所述全局识别子网络输出的全局子数据的步骤,包括:
通过所述全局识别子网络在所述特征图像中提取指定数据,并判断所述指定数据的数值是否在预设的数值范围之内,其中所述指定数据至少包括人体轮廓、人体肤色或者衣着颜色;
若所述指定数据的数值不在预设的数值范围之内,则将所述指定数据作为全局子数据,并输出所述全局子数据。
进一步地,所述将所述特征图像输入所述行人再识别模型中的预设的局部识别子网络中计算,从而获得所述局部识别子网络输出的局部子数据的步骤,包括:
通过所述局部识别子网络,采用预设的区块划分方法将所述特征图像划分为多个区块;
在各个所述区块中分别提取指定数据,并判断所述指定数据的数值是否在预设的数值范围之内,其中所述指定数据至少包括局部轮廓、局部肤色、或者局部衣着颜色;
若所述指定数据的数值不在预设的数值范围之内,则将所述指定数据作为局部子数据,并输出所述局部子数据。
进一步地,所述将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果的步骤,包括:
采用预设的映射方法,通过所述全连接层将所述主数据、所述全局子数据和所述局部子数据映射为一个固定长度的特征向量;
根据预设的分向量与识别结果对应关系,输出所述特征向量中数值最大的分向量对应的识别结果。
本申请提供一种基于残差网络的行人再识别装置,包括:
指令获取单元,用于获取行人再识别的指令,其中所述行人再识别的指令携带有待识别的指定行人的图像;
特征图像获取单元,用于将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成;
数据获取单元,用于将所述特征图像输入所述残差网络中的第五个残差块中计算,从而获得所述第五个残差块输出的主数据;以及并行地将所述特征图像输入所述行人再识别模型中预设的全局识别子网络中计算,从而获得所述全局识别子网络输出的全局子数据;以及并行地将所述特征图像输入所述行人再识别模型中的预设的局部识别子网络中计算,从而获得所述局部识别子网络输出的局部子数据;
行人再识别结果获取单元,用于将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果。
本申请提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
本申请提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
本申请的基于残差网络的行人再识别方法、装置、计算机设备和存储介质,获取行人再识别的指令,其中所述行人再识别的指令携带有待识别的指定行人的图像;将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像;获得所述第五个残差块输出的主数据;获得所述全局识别子网络输出的全局子数据;获得所述局部识别子网络输出的局部子数据;将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果。相对于传统技术仅利用残差网络最后一层输出的数据,本申请还综合考虑了所述残差网络中的第四个残差块输出的特征图像(通过全局子数据和局部子数据保留了细节数据),从而尽量减少了图像的细节特征的丢失,提高了行人再识别的准确性。
附图说明
图1为本申请一实施例的基于残差网络的行人再识别方法的流程示意图;
图2为本申请一实施例的基于残差网络的行人再识别装置的结构示意框图;
图3为本申请一实施例的计算机设备的结构示意框图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
参照图1,本申请实施例提供一种基于残差网络的行人再识别方法,包括以下步骤:
S1、获取行人再识别的指令,其中所述行人再识别的指令携带有待识别的指定行人的图像;
S2、将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成;
S3、将所述特征图像输入所述残差网络中的第五个残差块中计算,从而获得所述第五个残差块输出的主数据;以及并行地将所述特征图像输入所述行人再识别模型中预设的全局识别子网络中计算,从而获得所述全局识别子网络输出的全局子数据;以及并行地将所述特征图像输入所述行人再识别模型中的预设的局部识别子网络中计算,从而获得所述局部识别子网络输出的局部子数据;
S4、将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果。
如上述步骤S1所述,获取行人再识别的指令,其中所述行人再识别的指令携带有待识别的指定行人的图像。其中指定行人的图像可以通过任意方式获得,例如是预存在数据库中的指定行人的图像,或者是实时拍摄的指定行人的图像,或者是监控视频中截取的一帧指定行人的图像。
如上述步骤S2所述,将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于人体图像,以及与所述人体图像关联的识别结果的样本数据训练而成。本申请的行人再识别模型基于残差网络,其中所述残差网络例如为resnet50、resnet101、resnet152,本申请优选resnet50模型。其中残差网络包括第一至第五残差块,每个残差块均包括至少一层卷积层,并能输出对应的特征图像。并且本申请为了解决网络在经过层层处理之后,输入图像的细节特征会相应丢失的技术问题,还在行人再识别模型中设置了全局识别子网络和局部识别子网络,用以与第五个残差块一起并行接收第四个残差块输出的特征图像。而全局识别子网络和局部识别子网络能够将第四个残差块输出的特征图像的全局特征与局部特征选择性地保存下来,从而避免了有用数据的丢失,同时避免过多干扰数据的加入。所述行人再识别模型的输出层可为任意层,本申请优选全连接层,从而利用全连接层输出映射成一个固定长度的特征向量,再根据特征向量得到识别结果。
如上述步骤S3所述,将所述特征图像输入所述残差网络中的第五个残差块中计算,从而获得所述第五个残差块输出的主数据;以及并行地将所述特征图像输入所述行人再识别模型中预设的全局识别子网络中计算,从而获得所述全局识别子网络输出的全局子数据;以及并行地将所述特征图像输入所述行人再识别模型中的预设的局部识别子网络中计算,从而获得所述局部识别子网络输出的局部子数据。其中所述第五个残差块对特征图像进行计算的过程,即是包括卷积在内的过程(也还可以包括池化、激活等过程)。所述行人再识别模型中预设的全局识别子网络对所述特征图像进行计算的过程,即是将所述特征图像的全局特征(整幅图像的特征)提取的过程,例如将特征图像的全局颜色进行提取、特征图像的全局轮廓进行提取。所述行人再识别模型中预设的局部识别子网络中计算对所述特征图像进行计算的过程,即是对所述特征图像中的局部区域(例如在整幅图像中选取头部区域)的特征进行提取的过程,例如将特征图像的局部颜色进行提取、特征图像的局部轮廓进行提取。其中所述全局识别子网络和所述局部识别子网络可以采用任意的神经网络构造,例如采用基于卷积神经网络构造而形成。
如上述步骤S4所述,将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果。传统技术中的残差网络仅将第五个残差块输出的主数据输出至所述行人再识别模型中预设的全连接层中进行计算,从而得到最终的识别结果,识别准确度待提高。本申请还将所述第五个残差块输出的主数据、所述全局识别子网络输出的全局子数据和所述局部识别子网络输出的局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,即还利用了传统技术中忽略的第四残差块输出的特征图像中的细节数据,使得识别结果更加准确。
在一个实施方式中,所述指定行人的图像包括面部区域,所述将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成的步骤S2之前,包括:
S111、将所述指定行人的图像划分为多个区域,将每个区域的图像数据与预设的眼睛图像数据进行对比,得到每个区域图像数据与眼睛图像数据的差值,将差值不超过预设数值的区域记为眼睛区域;
S112、将每个区域的图像数据与预设的嘴巴图像数据进行比较,得到每个区域图像数据与嘴巴图像数据的差值,将差值不超过预设数值的区域记为嘴巴区域;
S113、调用标准面部图像,并通过等比例缩小或者放大操作,使所述标准面部图像中的眼睛区域与所述指定行人的图像中的眼睛区域重合,同时使所述标准面部图像中的嘴巴区域与所述指定行人的图像中的嘴巴区域重合,再将所述指定行人的图像中与经过所述等比例缩小或者放大操作后的标准面部图像重叠的区域记为面部区域,并将所述面部区域范围内的图像作为面部图像;
S114、采用预设的图像相似度计算方法,计算所述面部图像与预存的目标面部图像的相似度值,并判断所述相似度值是否大于预设的相似度阈值;
S115、若所述相似度值不大于预设的相似度阈值,则生成行人再识别模型计算指令,其中所述行人再识别模型计算指令用于指示将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算。
如上所述,实现了预识别所述指定行人的图像。其中,眼睛图像数据为标准的可用于标识眼睛特征的图像数据(例如预先采集得到的人的眼睛图像区域的数据),嘴巴图像数据为标准的可用于标识嘴巴特征的图像数据(例如预先采集得到的人的嘴巴图像区域的数据),所述图像数据例如为图像像素(三原色等)等。而具体比对图像数据的方法可采用任意的传统比较方式,例如采用像素点比对方法,在此不赘述。进一步地,若所述眼睛区域大于划分的单个区域,则以差值不超过预设数值的多个连续的区域为眼睛区域;同理,以差值不超过预设数值的多个连续的区域为嘴巴区域。由于人的面部中的五官是按一定的几何结构比例分布的,若确定眼睛区域与嘴巴区域,即可获知大致的面部轮廓。据此,调用标准面部图像,并通过等比例缩小或者放大操作,使所述标准面部图像中的眼睛区域与所述指定行人的图像中的眼睛区域重合,同时使所述标准面部图像中的嘴巴区域与所述指定行人的图像中的嘴巴区域重合,再将所述指定行人的图像中与经过所述等比例缩小或者放大操作后的标准面部图像重叠的区域记为面部区域,并将所述面部区域范围内的图像作为面部图像。再将采用预设的图像相似度计算方法,计算所述面部图像与预存的目标面部图像的相似度值,并判断所述相似度值是否大于预设的相似度阈值;若所述相似度值不大于预设的相似度阈值,表明所述指定行人的图像与用于对比的目标面部图像不同,因此需要进一步进行识别,据此生成行人再识别模型计算指令,其中所述行人再识别模型计算指令用于指示将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算。其中,所述预设的图像相似度计算方法,例如采用逐个对比像素点的方法,从而确定相同像素点的数量,再将相同像素点的数量除以所有相像点的数量的商值作为计算得到的相似度值。从而对于有明显特征的行人(例如脸特别大,脸有特别的痦子之类的特征),利用预设的图像相似度计算方法即可直接识别出行人,而不需要调用行人再识别模型,从而提高识别的效率。
在一个实施方式中,所述将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成的步骤S2之前,包括:
S121、获取指定量的样本数据,并将样本数据分成训练集和测试集;其中,所述样本数据包括行人图像,以及与行人图像关联的识别结果;
S122、将训练集的样本数据输入到基于残差网络的初始行人再识别模型中进行训练;其中,训练的过程中采用随机梯度下降法,得到结果训练模型;
S123、利用所述测试集的样本数据验证所述结果训练模型;
S124、如果验证通过,则将所述结果训练模型记为所述基于残差网络的行人再识别模型。
如上所述,实现了训练行人再识别模型。本实施方式基于残差网络的行人再识别模型。其中残差网络可为resnet50、resnet101、resnet152,本申请优选resnet50模型。其中,随机梯度下降法就是随机取样一些训练数据,替代整个训练集,如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本,就已经迭代到最优解了,可以提高训练速度。进一步地,训练的过程还可以采用反向传导法则更新所述各层的参数。其中反向传导法则(BP)建立在梯度下降法的基础上,BP网络的输入输出关系实质上是一种映射关系:一个n输入m输出的BP网络所完成的功能是从n维欧氏空间向m维欧氏空间中一有限域的连续映射,这一映射具有高度非线性,有利于网络模型各层的参数的更新。从而获得初始微表情识别模型。再利用所述测试集的样本数据验证所述结果训练模型;如果验证通过,则将所述结果训练模型记为所述基于残差网络的行人再识别模型。进一步地,所述基于残差网络的初始行人再识别模型不仅包括残差网络,还包括在第四个残差块之后,与第五个残差块并列的全局识别子网络和局部识别子网络,所述全局识别子网络和局部识别子网络分别用于将所述第四个残差块输出的特征图像的全局特征(整幅图像的特征)提取、对所述第四个残差块输出的特征图像中的局部区域(例如在整幅图像中选取头部区域)的特征进行提取。从而获取训练好的行人再识别模型。由于行人再识别模型经由了训练与验证的过程,能够保证行人再识别模型胜任行人再识别任务,优化行人再识别模型的参数,以提高行人再识别模型在正式的行人再识别的过程中的识别准确率。
在一个实施方式中,所述将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成的步骤S2之前,包括:
S131、获取已经训练完成的残差网络模型的各层权重参数;
S132、将所述各层权重参数初始化为初始行人再识别模型中的残差网络中的各层初始权重参数;
S133、利用测试集的样本数据验证所述初始行人再识别模型,其中,所述样本数据包括行人图像,以及与行人图像关联的识别结果;
S134、若验证通过,则将所述初始行人再识别模型记为所述基于残差网络的行人再识别模型。
如上所述,实现了采用迁移学习,快速获得基于残差网络的行人再识别模型。若具有已经训练好的残差网络模型,即可以免去训练的步骤,从而直接得到初始行人再识别模型中的残差网络中的各层初始权重参数,从而省去了训练步骤。为了防止初始行人再识别模型并不适用,还利用测试集的样本数据验证所述初始行人再识别模型,其中,所述样本数据包括行人图像,以及与行人图像关联的识别结果,若验证通过,则将所述初始行人再识别模型记为所述基于残差网络的行人再识别模型。从而保证最终获得的模型正确可用。本申请通过采用迁移学习的方式,获取各层权重参数,在此基础上进一步验证,从而免去了训练需要耗费的大量时间,从而缩短了行人再识别模型的获取时间。
在一个实施方式中,所述将所述特征图像输入所述行人再识别模型中预设的全局识别子网络中计算,从而获得所述全局识别子网络输出的全局子数据的步骤S3,包括:
S301、通过所述全局识别子网络在所述特征图像中提取指定数据,并判断所述指定数据的数值是否在预设的数值范围之内,其中所述指定数据至少包括人体轮廓、人体肤色或者衣着颜色;
S302、若所述指定数据的数值不在预设的数值范围之内,则将所述指定数据作为全局子数据,并输出所述全局子数据。
如上所述,实现了获得所述全局识别子网络输出的全局子数据。为了防止图像细节丢失,本申请在第四个残差块输出的特征图像中提出全局子数据,其中所述全局子数据的数值不在预设的数值范围之内,以实现保留差别较大的数据,而避免无用数据的干扰。指定数据为能够体现行人特征的数据,例如包括人体轮廓、人体肤色或者衣着颜色。由于人体轮廓不均一致、肤色或者衣着颜色也很可能不相同,据此将其作为指定数据进行提取。若所述指定数据的数值不在预设的数值范围之内,表明所述指定数据可用,例如要在黄种人中识别出白人,则人体肤色的数据的颜色值不在预设的数值范围之内,则可以作为有效数据输出。进一步地,所述全局识别子网络选择多个指定数据进行采集,并将数值不在预设的数值范围之内的指定数据作为全局子数据,并输出。其中,指定数据的个数可设置为2-10个,优选6-8个。进一步地,所述全局识别子网络可包括任意层数的神经网络,例如包括6-8层神经网络。从而以全局子数据的形式保留了所述特征图像中的细节特征,利于后续辅助行人再识别,从而提高了识别的准确率。
在一个实施方式中,所述将所述特征图像输入所述行人再识别模型中的预设的局部识别子网络中计算,从而获得所述局部识别子网络输出的局部子数据的步骤S3,包括:
S311、通过所述局部识别子网络,采用预设的区块划分方法将所述特征图像划分为多个区块;
S312、在各个所述区块中分别提取指定数据,并判断所述指定数据的数值是否在预设的数值范围之内,其中所述指定数据至少包括局部轮廓、局部肤色、或者局部衣着颜色;
S313、若所述指定数据的数值不在预设的数值范围之内,则将所述指定数据作为局部子数据,并输出所述局部子数据。
如上所述,实现了获得所述局部识别子网络输出的局部子数据。网络在经过层层处理之后,输入图像的细节特征会相应丢失,尤其是局部的图像数据会丢失。为了保留局部的有效数据,本申请通过所述局部识别子网络,采用预设的区块划分方法将所述特征图像划分为多个区块,并在各个所述区块中分别提取指定数据,若所述指定数据的数值不在预设的数值范围之内,则将所述指定数据作为局部子数据,并输出所述局部子数据。从而实现了保存有价值的局数子数据,并作为后续识别的依据之一。进一步地,所述局部识别子网络选择多个指定数据进行采集,并将数值不在预设的数值范围之内的指定数据作为全局子数据,并输出。其中,指定数据的个数可设置为2-10个,优选6-8个。进一步地,所述局部识别子网络可包括任意层数的神经网络,例如包括8-10层神经网络。进一步地,所述区块划分方法例如为:识别出所述特征图像中的特征形状,并将所述特征形状为中心的区域作为单个区块进行划分(例如识别出头部轮廓,则将头部轮廓作为头部区块进行划分)。从而以局部子数据的形式保留了所述特征图像中的细节特征,利于后续辅助行人再识别,从而提高了识别的准确率。
在一个实施方式中,所述将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果的步骤S4,包括:
S401、采用预设的映射方法,通过所述全连接层将所述主数据、所述全局子数据和所述局部子数据映射为一个固定长度的特征向量;
S402、根据预设的分向量与识别结果对应关系,输出所述特征向量中数值最大的分向量对应的识别结果。
如上所述,实现了综合利用所述主数据、所述全局子数据和所述局部子数据,从而获得所述全连接层输出的行人再识别结果。传统技术中的基于残差网络的模型,均是将第五个残差块的数据输入全连接层中,再由全连接层将数据映射为特征向量。而本申请还综合考虑了所述第五个残差块输出的主数据、所述全局识别子网络输出的全局子数据和所述局部识别子网络输出的局部子数据,从而利用全连接层将其映射为一个固定长度的特征向量,从而提高了识别准确度。其中预设的映射方法,与传统技术中全连接层的映射方法相似,在此不再赘述。其中全连接层输出的特征向量的各个分向量均代表了对应的识别结果,而数值最大的分向量对应的识别结果则是最可能的识别结果,因此将数值最大的分向量对应的识别结果作为最终输出的识别结果。相对于传统技术,本申请不仅利用了主数据,还利用了传统技术忽视的所述全局子数据和所述局部子数据,因此映射得到的特征向量更准确,最终的识别结果的识别准确性也得到了提高。
本申请的基于残差网络的行人再识别方法,获取行人再识别的指令,其中所述行人再识别的指令携带有待识别的指定行人的图像;将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像;获得所述第五个残差块输出的主数据;获得所述全局识别子网络输出的全局子数据;获得所述局部识别子网络输出的局部子数据;将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果。从而提高了行人再识别的准确性。
参照图2,本申请实施例提供一种基于残差网络的行人再识别装置,包括:
指令获取单元10,用于获取行人再识别的指令,其中所述行人再识别的指令携带有待识别的指定行人的图像;
特征图像获取单元20,用于将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成;
数据获取单元30,用于将所述特征图像输入所述残差网络中的第五个残差块中计算,从而获得所述第五个残差块输出的主数据;以及并行地将所述特征图像输入所述行人再识别模型中预设的全局识别子网络中计算,从而获得所述全局识别子网络输出的全局子数据;以及并行地将所述特征图像输入所述行人再识别模型中的预设的局部识别子网络中计算,从而获得所述局部识别子网络输出的局部子数据;
行人再识别结果获取单元40,用于将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果。
其中上述单元分别用于执行的操作与前述实施方式的基于残差网络的行人再识别方法的步骤一一对应,在此不再赘述。
在一个实施方式中,所述指定行人的图像包括面部区域,所述装置,包括:
眼睛区域标记单元,用于将所述指定行人的图像划分为多个区域,将每个区域的图像数据与预设的眼睛图像数据进行对比,得到每个区域图像数据与眼睛图像数据的差值,将差值不超过预设数值的区域记为眼睛区域;
嘴巴区域标记单元,用于将每个区域的图像数据与预设的嘴巴图像数据进行比较,得到每个区域图像数据与嘴巴图像数据的差值,将差值不超过预设数值的区域记为嘴巴区域;
面部图像获取单元,用于调用标准面部图像,并通过等比例缩小或者放大操作,使所述标准面部图像中的眼睛区域与所述指定行人的图像中的眼睛区域重合,同时使所述标准面部图像中的嘴巴区域与所述指定行人的图像中的嘴巴区域重合,再将所述指定行人的图像中与经过所述等比例缩小或者放大操作后的标准面部图像重叠的区域记为面部区域,并将所述面部区域范围内的图像作为面部图像;
相似度值计算单元,用于采用预设的图像相似度计算方法,计算所述面部图像与预存的目标面部图像的相似度值,并判断所述相似度值是否大于预设的相似度阈值;
计算指令生成单元,用于若所述相似度值不大于预设的相似度阈值,则生成行人再识别模型计算指令,其中所述行人再识别模型计算指令用于指示将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算。
其中上述单元分别用于执行的操作与前述实施方式的基于残差网络的行人再识别方法的步骤一一对应,在此不再赘述。
在一个实施方式中,所述装置,包括:
样本数据获取单元,用于获取指定量的样本数据,并将样本数据分成训练集和测试集;其中,所述样本数据包括行人图像,以及与行人图像关联的识别结果;
训练单元,用于将训练集的样本数据输入到基于残差网络的初始行人再识别模型中进行训练;其中,训练的过程中采用随机梯度下降法,得到结果训练模型;
验证单元,用于利用所述测试集的样本数据验证所述结果训练模型;
模型标记单元,用于如果验证通过,则将所述结果训练模型记为所述基于残差网络的行人再识别模型。
其中上述单元分别用于执行的操作与前述实施方式的基于残差网络的行人再识别方法的步骤一一对应,在此不再赘述。
在一个实施方式中,所述装置,包括:
权重参数获取单元,用于获取已经训练完成的残差网络模型的各层权重参数;
初始化单元,用于将所述各层权重参数初始化为初始行人再识别模型中的残差网络中的各层初始权重参数;
模型验证单元,用于利用测试集的样本数据验证所述初始行人再识别模型,其中,所述样本数据包括行人图像,以及与行人图像关联的识别结果;
行人再识别模型标记单元,用于若验证通过,则将所述初始行人再识别模型记为所述基于残差网络的行人再识别模型。
其中上述单元分别用于执行的操作与前述实施方式的基于残差网络的行人再识别方法的步骤一一对应,在此不再赘述。
在一个实施方式中,所述数据获取单元30,包括:
指定数据提取子单元,用于通过所述全局识别子网络在所述特征图像中提取指定数据,并判断所述指定数据的数值是否在预设的数值范围之内,其中所述指定数据至少包括人体轮廓、人体肤色或者衣着颜色;
全局子数据输出子单元,用于若所述指定数据的数值不在预设的数值范围之内,则将所述指定数据作为全局子数据,并输出所述全局子数据。
其中上述子单元分别用于执行的操作与前述实施方式的基于残差网络的行人再识别方法的步骤一一对应,在此不再赘述。
在一个实施方式中,所述数据获取单元30,包括:
区块划分子单元,用于通过所述局部识别子网络,采用预设的区块划分方法将所述特征图像划分为多个区块;
数据提取子单元,用于在各个所述区块中分别提取指定数据,并判断所述指定数据的数值是否在预设的数值范围之内,其中所述指定数据至少包括局部轮廓、局部肤色、或者局部衣着颜色;
局部子数据输出子单元,用于若所述指定数据的数值不在预设的数值范围之内,则将所述指定数据作为局部子数据,并输出所述局部子数据。
其中上述子单元分别用于执行的操作与前述实施方式的基于残差网络的行人再识别方法的步骤一一对应,在此不再赘述。
在一个实施方式中,所述行人再识别结果获取单元40,包括:
映射子单元,用于采用预设的映射方法,通过所述全连接层将所述主数据、所述全局子数据和所述局部子数据映射为一个固定长度的特征向量;
识别结果输出子单元,用于根据预设的分向量与识别结果对应关系,输出所述特征向量中数值最大的分向量对应的识别结果。
其中上述子单元分别用于执行的操作与前述实施方式的基于残差网络的行人再识别方法的步骤一一对应,在此不再赘述。
本申请的基于残差网络的行人再识别装置,获取行人再识别的指令,其中所述行人再识别的指令携带有待识别的指定行人的图像;将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像;获得所述第五个残差块输出的主数据;获得所述全局识别子网络输出的全局子数据;获得所述局部识别子网络输出的局部子数据;将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果。从而提高了行人再识别的准确性。
参照图3,本发明实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储基于残差网络的行人再识别方法所用数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于残差网络的行人再识别方法。
上述处理器执行上述基于残差网络的行人再识别方法,其中所述方法包括的步骤分别与执行前述实施方式的基于残差网络的行人再识别方法的步骤一一对应,在此不再赘述。
本领域技术人员可以理解,图中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定。
本申请的计算机设备,获取行人再识别的指令,其中所述行人再识别的指令携带有待识别的指定行人的图像;将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像;获得所述第五个残差块输出的主数据;获得所述全局识别子网络输出的全局子数据;获得所述局部识别子网络输出的局部子数据;将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果。从而提高了行人再识别的准确性。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现基于残差网络的行人再识别方法,其中所述方法包括的步骤分别与执行前述实施方式的基于残差网络的行人再识别方法的步骤一一对应,在此不再赘述。
本申请的计算机可读存储介质,获取行人再识别的指令,其中所述行人再识别的指令携带有待识别的指定行人的图像;将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像;获得所述第五个残差块输出的主数据;获得所述全局识别子网络输出的全局子数据;获得所述局部识别子网络输出的局部子数据;将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果。从而提高了行人再识别的准确性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种基于残差网络的行人再识别方法,其特征在于,包括:
获取行人再识别的指令,其中所述行人再识别的指令携带有待识别的指定行人的图像;
将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成;
将所述特征图像输入所述残差网络中的第五个残差块中计算,从而获得所述第五个残差块输出的主数据;以及并行地将所述特征图像输入所述行人再识别模型中预设的全局识别子网络中计算,从而获得所述全局识别子网络输出的全局子数据;以及并行地将所述特征图像输入所述行人再识别模型中的预设的局部识别子网络中计算,从而获得所述局部识别子网络输出的局部子数据;
将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果。
2.根据权利要求1所述的基于残差网络的行人再识别方法,其特征在于,所述指定行人的图像包括面部区域,所述将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成的步骤之前,包括:
将所述指定行人的图像划分为多个区域,将每个区域的图像数据与预设的眼睛图像数据进行对比,得到每个区域图像数据与眼睛图像数据的差值,将差值不超过预设数值的区域记为眼睛区域;
将每个区域的图像数据与预设的嘴巴图像数据进行比较,得到每个区域图像数据与嘴巴图像数据的差值,将差值不超过预设数值的区域记为嘴巴区域;
调用标准面部图像,并通过等比例缩小或者放大操作,使所述标准面部图像中的眼睛区域与所述指定行人的图像中的眼睛区域重合,同时使所述标准面部图像中的嘴巴区域与所述指定行人的图像中的嘴巴区域重合,再将所述指定行人的图像中与经过所述等比例缩小或者放大操作后的标准面部图像重叠的区域记为面部区域,并将所述面部区域范围内的图像作为面部图像;
采用预设的图像相似度计算方法,计算所述面部图像与预存的目标面部图像的相似度值,并判断所述相似度值是否大于预设的相似度阈值;
若所述相似度值不大于预设的相似度阈值,则生成行人再识别模型计算指令,其中所述行人再识别模型计算指令用于指示将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算。
3.根据权利要求1所述的基于残差网络的行人再识别方法,其特征在于,所述将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成的步骤之前,包括:
获取指定量的样本数据,并将样本数据分成训练集和测试集;其中,所述样本数据包括行人图像,以及与行人图像关联的识别结果;
将训练集的样本数据输入到基于残差网络的初始行人再识别模型中进行训练;其中,训练的过程中采用随机梯度下降法,得到结果训练模型;
利用所述测试集的样本数据验证所述结果训练模型;
如果验证通过,则将所述结果训练模型记为所述基于残差网络的行人再识别模型。
4.根据权利要求1所述的基于残差网络的行人再识别方法,其特征在于,所述将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成的步骤之前,包括:
获取已经训练完成的残差网络模型的各层权重参数;
将所述各层权重参数初始化为初始行人再识别模型中的残差网络中的各层初始权重参数;
利用测试集的样本数据验证所述初始行人再识别模型,其中,所述样本数据包括行人图像,以及与行人图像关联的识别结果;
若验证通过,则将所述初始行人再识别模型记为所述基于残差网络的行人再识别模型。
5.根据权利要求1所述的基于残差网络的行人再识别方法,其特征在于,所述将所述特征图像输入所述行人再识别模型中预设的全局识别子网络中计算,从而获得所述全局识别子网络输出的全局子数据的步骤,包括:
通过所述全局识别子网络在所述特征图像中提取指定数据,并判断所述指定数据的数值是否在预设的数值范围之内,其中所述指定数据至少包括人体轮廓、人体肤色或者衣着颜色;
若所述指定数据的数值不在预设的数值范围之内,则将所述指定数据作为全局子数据,并输出所述全局子数据。
6.根据权利要求1所述的基于残差网络的行人再识别方法,其特征在于,所述将所述特征图像输入所述行人再识别模型中的预设的局部识别子网络中计算,从而获得所述局部识别子网络输出的局部子数据的步骤,包括:
通过所述局部识别子网络,采用预设的区块划分方法将所述特征图像划分为多个区块;
在各个所述区块中分别提取指定数据,并判断所述指定数据的数值是否在预设的数值范围之内,其中所述指定数据至少包括局部轮廓、局部肤色、或者局部衣着颜色;
若所述指定数据的数值不在预设的数值范围之内,则将所述指定数据作为局部子数据,并输出所述局部子数据。
7.根据权利要求1所述的基于残差网络的行人再识别方法,其特征在于,所述将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果的步骤,包括:
采用预设的映射方法,通过所述全连接层将所述主数据、所述全局子数据和所述局部子数据映射为一个固定长度的特征向量;
根据预设的分向量与识别结果对应关系,输出所述特征向量中数值最大的分向量对应的识别结果。
8.一种基于残差网络的行人再识别装置,其特征在于,包括:
指令获取单元,用于获取行人再识别的指令,其中所述行人再识别的指令携带有待识别的指定行人的图像;
特征图像获取单元,用于将所述指定行人的图像输入预设的训练好的基于残差网络的行人再识别模型中计算,从而获取所述残差网络中的第四个残差块输出的特征图像,其中,所述行人再识别模型基于行人图像,以及与行人图像关联的识别结果的样本数据训练而成;
数据获取单元,用于将所述特征图像输入所述残差网络中的第五个残差块中计算,从而获得所述第五个残差块输出的主数据;以及并行地将所述特征图像输入所述行人再识别模型中预设的全局识别子网络中计算,从而获得所述全局识别子网络输出的全局子数据;以及并行地将所述特征图像输入所述行人再识别模型中的预设的局部识别子网络中计算,从而获得所述局部识别子网络输出的局部子数据;
行人再识别结果获取单元,用于将所述主数据、所述全局子数据和所述局部子数据输入所述行人再识别模型中预设的全连接层中进行计算,从而获得所述全连接层输出的行人再识别结果。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910696302.XA CN110543823B (zh) | 2019-07-30 | 2019-07-30 | 基于残差网络的行人再识别方法、装置和计算机设备 |
PCT/CN2019/118803 WO2021017316A1 (zh) | 2019-07-30 | 2019-11-15 | 基于残差网络的信息识别方法、装置和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910696302.XA CN110543823B (zh) | 2019-07-30 | 2019-07-30 | 基于残差网络的行人再识别方法、装置和计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110543823A true CN110543823A (zh) | 2019-12-06 |
CN110543823B CN110543823B (zh) | 2024-03-19 |
Family
ID=68710475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910696302.XA Active CN110543823B (zh) | 2019-07-30 | 2019-07-30 | 基于残差网络的行人再识别方法、装置和计算机设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110543823B (zh) |
WO (1) | WO2021017316A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553213A (zh) * | 2020-04-17 | 2020-08-18 | 大连理工大学 | 移动边缘云中实时分布式的身份感知行人属性识别方法 |
CN114937150A (zh) * | 2022-05-20 | 2022-08-23 | 电子科技大学 | 一种基于深度阈值残差网络的无人机目标识别方法 |
CN115631509A (zh) * | 2022-10-24 | 2023-01-20 | 智慧眼科技股份有限公司 | 一种行人再识别方法、装置、计算机设备及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113962303B (zh) * | 2021-10-21 | 2024-04-26 | 哈尔滨工程大学 | 基于密度融合的水下试验环境反演方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108960127A (zh) * | 2018-06-29 | 2018-12-07 | 厦门大学 | 基于自适应深度度量学习的遮挡行人重识别方法 |
WO2019033572A1 (zh) * | 2017-08-17 | 2019-02-21 | 平安科技(深圳)有限公司 | 人脸遮挡检测方法、装置及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107145900B (zh) * | 2017-04-24 | 2019-07-26 | 清华大学 | 基于一致性约束特征学习的行人再识别方法 |
CN108960114A (zh) * | 2018-06-27 | 2018-12-07 | 腾讯科技(深圳)有限公司 | 人体识别方法及装置、计算机可读存储介质及电子设备 |
CN108960140B (zh) * | 2018-07-04 | 2021-04-27 | 国家新闻出版广电总局广播科学研究院 | 基于多区域特征提取和融合的行人再识别方法 |
-
2019
- 2019-07-30 CN CN201910696302.XA patent/CN110543823B/zh active Active
- 2019-11-15 WO PCT/CN2019/118803 patent/WO2021017316A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019033572A1 (zh) * | 2017-08-17 | 2019-02-21 | 平安科技(深圳)有限公司 | 人脸遮挡检测方法、装置及存储介质 |
CN108960127A (zh) * | 2018-06-29 | 2018-12-07 | 厦门大学 | 基于自适应深度度量学习的遮挡行人重识别方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553213A (zh) * | 2020-04-17 | 2020-08-18 | 大连理工大学 | 移动边缘云中实时分布式的身份感知行人属性识别方法 |
CN111553213B (zh) * | 2020-04-17 | 2022-09-20 | 大连理工大学 | 移动边缘云中实时分布式的身份感知行人属性识别方法 |
CN114937150A (zh) * | 2022-05-20 | 2022-08-23 | 电子科技大学 | 一种基于深度阈值残差网络的无人机目标识别方法 |
CN114937150B (zh) * | 2022-05-20 | 2023-04-07 | 电子科技大学 | 一种基于深度阈值残差网络的无人机目标识别方法 |
CN115631509A (zh) * | 2022-10-24 | 2023-01-20 | 智慧眼科技股份有限公司 | 一种行人再识别方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110543823B (zh) | 2024-03-19 |
WO2021017316A1 (zh) | 2021-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110543823A (zh) | 基于残差网络的行人再识别方法、装置和计算机设备 | |
CN110599451B (zh) | 医学图像病灶检测定位方法、装置、设备及存储介质 | |
CN110796161B (zh) | 识别模型训练、眼底特征的识别方法、装置、设备及介质 | |
WO2019227616A1 (zh) | 动物身份的识别方法、装置、计算机设备和存储介质 | |
CN112232117A (zh) | 一种人脸识别方法、装置及存储介质 | |
CN110941986A (zh) | 活体检测模型的训练方法、装置、计算机设备和存储介质 | |
CN110807491A (zh) | 车牌图像清晰度模型训练方法、清晰度检测方法及装置 | |
JP2018028899A5 (zh) | ||
CN110163151B (zh) | 人脸模型的训练方法、装置、计算机设备和存储介质 | |
CN111832581B (zh) | 肺部特征识别方法、装置、计算机设备及存储介质 | |
CN112818821B (zh) | 基于可见光和红外光的人脸采集源检测方法和装置 | |
CN111914842A (zh) | 车牌信息的识别方法、装置、计算机设备及存储介质 | |
CN111160275A (zh) | 行人重识别模型训练方法、装置、计算机设备和存储介质 | |
CN110765850A (zh) | 基于残差网络的报警方法、装置、计算机设备和存储介质 | |
CN111383270A (zh) | 物体定位方法、装置、计算机设备及存储介质 | |
CN112884782A (zh) | 生物对象分割方法、装置、计算机设备和存储介质 | |
CN113673439A (zh) | 基于人工智能的宠物狗识别方法、装置、设备及存储介质 | |
CN116457776A (zh) | 图像处理方法、装置、计算设备及介质 | |
CN111126376B (zh) | 基于面部特征点检测的图片纠正方法、装置和计算机设备 | |
CN111582155A (zh) | 活体检测方法、装置、计算机设备和存储介质 | |
CN111046755A (zh) | 字符识别方法、装置、计算机设备和计算机可读存储介质 | |
CN111079617B (zh) | 家禽识别方法、装置、可读存储介质及电子设备 | |
CN112308035A (zh) | 图像检测方法、装置、计算机设备和存储介质 | |
CN114782756B (zh) | 基于特征融合的缺陷检测方法、装置、设备及存储介质 | |
CN116468649A (zh) | 脊柱图像识别模型的训练方法、类别确定方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |