CN113537032A - 一种基于图片分块丢弃的分集多支路行人重识别方法 - Google Patents
一种基于图片分块丢弃的分集多支路行人重识别方法 Download PDFInfo
- Publication number
- CN113537032A CN113537032A CN202110784276.3A CN202110784276A CN113537032A CN 113537032 A CN113537032 A CN 113537032A CN 202110784276 A CN202110784276 A CN 202110784276A CN 113537032 A CN113537032 A CN 113537032A
- Authority
- CN
- China
- Prior art keywords
- branch
- training
- network
- pedestrian
- discarding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 49
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 7
- 238000003062 neural network model Methods 0.000 claims abstract description 6
- 238000005520 cutting process Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 27
- 230000000903 blocking effect Effects 0.000 claims description 16
- 238000012360 testing method Methods 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000007781 pre-processing Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003153 chemical reaction reagent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000008187 granular material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于图片分块丢弃的分集多支路行人重识别方法,所述行人重识别方法包含以下步骤:S1:构建多分支卷积神经网络;S2:针对不同分支采用不同比率的分块裁切操作对训练图片数据进行预处理;S3:采用双批次数据联合训练的方法训练神经网络模型;S4:采用交叉熵、三元组损失函数、中心损失函数的加权形式作为总损失函数训练模型权重;S5:将神经网络所有支路的行人特征进行特征拼接融合,得到总特征,给定测试图片通过总特征计算距离度量,获得相似性匹配结果,本方法通过控制支路前端输入的差异化图片分块丢弃策略获得行人重识别支路特征的分集性,有效提高了多支路神经网络模型的行人识别准确度。
Description
技术领域:
本发明涉及计算机视觉技术领域,具体是一种基于图片分块丢弃的分集多支路行人重识别方法。
背景技术:
行人重识别(Person Re-identification)是指在多个非重叠摄像头的场景下,在行人图像数据库中检索出与给定的查询图像身份相同的行人图像。行人重识别可以广泛应用于智能安防以及视频监控等领域。
行人重识别可以被认为是一个特征嵌入(feature-embedding)问题,理想情况下类内距离(同一个人的不同图片)应小于类间距离(不同人的图片),不幸的是大多数现有的特征嵌入解决方案要求以成对的方式对样本进行分组,这通常是计算密集型的。在实践中,由于分类任务在训练的实现复杂性上具有明显的优势,因此经常使用分类方法作为特征嵌入解决方案。如今,大多数用于行人重识别的最新方法已从单一的度量学习问题或单一的分类问题演变为多任务问题,即同时采用类别损失和三元组损失。由于每个样本图像仅用人员ID进行标记,因此,如果不对底层神经网络进行精心设计并进一步使用某些正则化技术,则端到端训练方法通常很难学习多样且丰富的特征。
近年来,许多基于局部粒度信息提取以及特征丢弃机制的算法被应用于行人重识别领域。Sun等人(Sun Y,Zheng L,Yang Y,et al.Beyond part models:Person retrievalwith refined part pooling(and a strong convolutional baseline)[C]//Proceedings of the European Conference on Computer Vision(ECCV).2018:480-496.)提出一种基于分块的卷积基准网络(Part Based Convolutional Baseline,PCB),通过将行人均等分为六分块引导网络更加关注局部粒度信息;Dai等人(Dai Z,Chen M,Gu X,et al.Batch DropBlock network for person re-identification and beyond[C]//Proceedings of the IEEE International Conference on Computer Vision.2019:3691-3701.)提出的(Batch drop block,BDB)算法,通过对数据随机局部遮挡,使网络获得更为全面的空间特征。作为一种典型的应用特征分块丢弃策略的方法,BDB算法已被证明对行人重识别任务有显著效果,但是BDB中的特征丢弃模式仅在一次迭代(一批样本)内固定,网络在学习相应特征时可能会遇到困难。改善特征发现多样性的一种方法是增加分支数量,但BDB网络模型仅限于两分支体系结构。当前,如何将现有的两分支体系结构扩展到具有任意数量的分支以实现改善的多样性的体系结构仍是一项充满挑战的任务。
发明内容:
本发明的目的在于提供一种基于图片分块丢弃的分集多支路行人重识别方法,以解决现有技术中的问题。
一种基于图片分块丢弃的分集多支路行人重识别方法,所述行人重识别方法包含以下步骤:
S1:构建多分支卷积神经网络;
S2:针对不同分支采用不同比率的分块裁切操作对训练图片数据进行预处理;
S3:采用双批次数据联合训练的方法训练神经网络模型;
S4:采用交叉熵、三元组损失函数、中心损失函数的加权形式作为总损失函数训练模型权重;
S5:将神经网络所有支路的行人特征进行特征拼接融合,得到总特征,给定测试图片通过总特征计算距离度量,获得相似性匹配结果。
进一步的,步骤S1中,所述多分支卷积神经网络包含主干网以及全局支路、l个局部支路,其中l≥1,具体构建步骤如下:
S1.1、对于主干网络:采用ResNet系列网络,ResNet系列网络结构分为第一至第四卷积层,第四卷积层中的降采样层被移除,在第三和第四卷积层中插入空间注意力模块SAM和通道注意力模块CAM;对于输入的三维张量T∈Rh×w×c,h、w、c分别代表高、宽、通道数,SAM模块首先计算出输入的相关矩阵,定义为:
Ξ=X(I-β1)XT,
X通过输入张量按通道数c展开得到,尺寸为c×l,l=h×w,I为单位矩阵,β为参数,计算亲和矩阵affinity matrix,定义为:
SAM模块输出可表示为:
Y=X+λΛX,
其中λ为可学习参量,CAM模块的处理过程与SAM类似,不同之处在于CAM将输入张量按w×c展开得到;ResNet网络载入ImageNet数据集预训练参数;
CAM模块输出可表示为:
YCAM=XCAM+λΛXCAM,
XCAM由输入三维张量按w×h展开得到,大小为c×(w×h),亲和矩阵计算方式与SAM相同;
S1.3、对于局部支路:输入为图片先经过像素丢弃再经过主干网络得到的特征图输入张量依次经过ResNet50网络第四卷积层、bottleNeck结构层、SAM注意力模块、全局最大值池化层GMP、降维层后输出特征。
进一步的,所述预处理步骤中,对于一个批次的训练数据X∈Rb×h×w×c,
其中,b、h、w、c分别为每批次图片张数、高、宽、通道数;
图像高、宽的分块丢弃比率分别为rh、rw;
其中,0≤rh,rw≤1,
随机生成的高、宽大小分别为rh×h、rw×w的分块像素丢弃区域,将丢弃区域内的像素值均置为零,每隔Q个训练批次重新随机生成丢弃区域位置,其中Q≥1。
进一步的,所述预处理步骤中,对于l个局部支路,采用不同的高度比率rh对输入训练数据进行分块丢弃操作,rh分别设置为l个不同的值,宽度比率rw保持为1。
进一步的,所述预处理步骤中,对于全局支路,不对输入的训练数据进行分块丢弃操作。
进一步的,预处理步骤还包括宽高归一化为128×384、随机翻转、随机裁切、随机擦除。
进一步的,步骤S3中,所述双批次数据联合训练包括以下步骤:
S3.1:将一个完整训练批次的图片数据均分为两个子批次,对其中一个子批次图片进行步骤S2中所述的图像分块丢弃处理,之后再将两个子批次合并为一个完整批次送入主干网络提取对应特征图;
S3.2:将主干网络提取到的特征图再次分为两个子批次,将对应经过分块丢弃处理的特征图子批次作为输入进入局部支路,未经过分块丢弃处理的特征图子批次进入全局支路;
S3.3:调整高度比率rh后,重复多次训练网络,每次训练保留模型局部支路权重,将l个对应不同高度比率rh的局部支路、一个全局支路和主干网络组合成完整l+1个分支网络,用于测试数据的分集特征提取。
进一步的,步骤S4中,所述采用三种损失函数对网络权重进行优化,分别为交叉熵误差函数LCE、三元组损失函数LTriplet、中心损失函数Lcenter,最终损失函数可表示为:
Ltotal=LCE+γtLTriplet+γcLcenter,
其中γt和γc为权重系数,通过最终损失函数对网络整体权重进行优化,采用优化器为Adam优化器。
更进一步的,步骤S5中,所述特征拼接融合包括以下步骤:
S5.1:将测试图片输入主干网络;
S5.2:将主干网提取的特征分别送入全局支路以及l个局部支路;
S5.3:将l+1个支路的输出特征拼接后根据欧式距离构建相似度矩阵;
S5.4:根据距离大小进行排序,得到检索候选结果,完成行人重识别任务。
与现有技术相比,本发明的有益效果为:
本方法通过控制支路前端输入的差异化图片分块丢弃策略获得行人重识别支路特征的分集性,有效提高了多支路神经网络模型的行人识别准确度。为解决图像分块丢弃可能导致的网络训练难以收敛问题,本发明提出了一种双批次数据联合训练的策略,并且通过将不同丢弃比率下得到的具有分集性的特征进行拼接,通过距离度量获得相似性排序,得到更为精准的行人重识别结果。
附图说明:
图1为本发明一种基于图片分块丢弃的分集多支路行人重识别方法的整体步骤流程图;
图2为本发明一种基于图片分块丢弃的分集多支路行人重识别方法的模型及数据处理流程图;
图3为本发明一种基于图片分块丢弃的分集多支路行人重识别方法的双批次数据联合训练步骤流程图。
具体实施方式:
下为使本发明实施例的目的、技术方案和优点更加清楚,下面将对本发明实施例中的技术方案进行清楚、完整地描述。实施例中未注明具体条件者,按照常规条件或制造商建议的条件进行。所用试剂或仪器未注明生产厂商者,均为可以通过市售购买获得的常规产品。
实施例:如图1所示,一种基于图片分块丢弃的分集多支路行人重识别方法,行人重识别方法包含以下步骤:
S1:构建多分支卷积神经网络;
S2:针对不同分支采用不同比率的分块裁切操作对训练图片数据进行预处理;
S3:采用双批次数据联合训练的方法训练神经网络模型;
S4:采用交叉熵、三元组损失函数、中心损失函数的加权形式作为总损失函数训练模型权重;
S5:将神经网络所有支路的行人特征进行特征拼接融合,得到总特征,给定测试图片通过总特征计算距离度量,获得相似性匹配结果。
如图2所示,步骤S1中,多分支卷积神经网络包含主干网以及全局支路、l个局部支路,其中l≥1,本实例下l设为3,具体构建步骤如下:
S1.1、对于主干网络:此实例采用ResNet50网络,ResNet50网络结构分为第一至第四卷积层,第四卷积层中的降采样层被移除,在第三和第四卷积层中插入空间注意力模块SAM和通道注意力模块CAM;对于输入的三维张量T∈Rh×w×c,h、w、c分别代表高、宽、通道数,SAM模块首先计算出输入的相关矩阵,定义为:
Ξ=X(I-β1)XT,
X通过输入张量按通道数c展开得到,尺寸为c×l,l=h×w,I为单位矩阵,β为参数这里设置为0,计算亲和矩阵affinity matrix,定义为:
SAM模块输出可表示为:
Y=X+λΛX,
其中λ为可学习参量,CAM模块的处理过程与SAM类似,不同之处在于CAM将输入张量按w×c展开得到;ResNet50网络载入ImageNet数据集预训练参数;
CAM模块输出可表示为:
YCAM=XCAM+λΛXCAM,
XCAM由输入三维张量按w×h展开得到,大小为c×(w×h),亲和矩阵计算方式与SAM相同;
S1.2、对于全局支路:输入为图片直接经过主干网络得到的特征图输入张量依次经过ResNet50网络第四卷积层、bottleNeck结构层、SAM注意力模块、全局均值池化层GAP、降维层得到512维输出特征;
S1.3、对于局部支路:输入为图片先经过像素丢弃再经过主干网络得到的特征图输入张量依次经过ResNet50网络第四卷积层、bottleNeck结构层、SAM注意力模块、全局最大值池化层GMP、降维层得到512维输出特征。
预处理步骤中,对于一个批次的训练数据X∈Rb×h×w×c,
其中,b、h、w、c分别为每批次图片张数、高、宽、通道数;
图像高、宽的分块丢弃比率分别为rh、rw;
其中,0≤rh,rw≤1,
随机生成的高、宽大小分别为rh×h、rw×w的分块像素丢弃区域,将丢弃区域内的像素值均置为零,每隔Q个训练批次重新随机生成丢弃区域位置,其中Q≥1,此实例下Q设置为5。
步骤S2预处理步骤中,对于l个局部支路,采用不同的高度比率rh对输入训练数据进行分块丢弃操作,rh分别设置为l个不同的值,此实例下l设为3,对应rh分别设为0.2、0.3、0.4,宽度比率rw保持为1。
预处理步骤中,对于全局支路,不对输入的训练数据进行分块丢弃操作。
预处理步骤还包括宽高归一化为128×384、随机翻转、随机裁切、随机擦除。
如图3所示,步骤S3中,双批次数据联合训练包括以下步骤:
S3.1:将一个完整训练批次的图片数据均分为两个子批次,对其中一个子批次图片进行步骤S2中的图像分块丢弃处理,之后再将两个子批次合并为一个完整批次送入主干网络提取对应特征图;
S3.2:将主干网络提取到的特征图再次分为两个子批次,将对应经过分块丢弃处理的特征图子批次作为输入进入局部支路,未经过分块丢弃处理的特征图子批次进入全局支路;
S3.3:调整高度比率rh后,重复多次训练网络,每次训练保留模型局部支路权重,将l个对应不同高度比率rh的局部支路、一个全局支路和主干网络组合成完整l+1个分支网络,用于测试数据的分集特征提取。
步骤S4中,所述采用三种损失函数对网络权重进行优化,分别为交叉熵误差函数LCE、三元组损失函数LTriplet、中心损失函数Lcenter,最终损失函数可表示为:
Ltotal=LCE+γtLTriplet+γcLcenter,
其中γt和γc为权重系数,通过最终损失函数对网络整体权重进行优化,采用优化器为Adam优化器。
步骤S5中,特征拼接融合包括以下步骤:
S5.1:将测试集图片输入主干网络,输出主干网络特征;
S5.2:将主干网特征分别送入全局支路以及l个局部支路,得到全局支路特征以及l个局部支路特征,对任一测试图片的l+1个支路特征进行拼接得到该图片的拼接特征;
S5.3:将l+1个支路的输出特征拼接后根据欧式距离构建相似度矩阵,基于拼接特征计算M个测试图片与N个目标图片之间的欧氏距离,构建尺寸大小为M×N的相似度矩阵:
S5.4:根据测试图片与目标图片的欧式距离大小进行排序,得到检索候选结果,完成行人重识别任务。
为充分验证本发明的效果并且便于和已公开的其他行人重识别方法进行比较,本发明分别在Market1501、DukeMTMC-ReID、CUHK03三种数据集上进行实验。Market1501于2015年夏采集自清华大学校园内,包含1501个行人ID,通过6个摄像头采集共32668张图片,其中训练集包含751个行人ID共12,936张图片,测试集包含余下750个ID,3,368个检索图片,15913张待检图片;DukeMTMC-reID于2015年冬采集自杜克大学校园内,包含1812个行人ID,共有36411张图片,其中训练集包含702个行人ID共16522张图片,测试集包含余下的702个行人ID图片。CUHK03数据集包含人工标记的14096张图像,和检测标记的14097张图像,这些图像由两个相机视图捕获,总共具有1467个ID,其中767个ID的图片用于训练,其余用于测试。
在网络模型训练过程中,每个子批次大小为32张图片(包含8个行人ID,每个ID4张图片),一个完整训练批次大小为64张,本发明采用Adam优化器,并采用WarmUp策略经过10个epoch将学习率提升到0.00035,分别再经过40个epoch和65个epoch时学习率降至3.5e-5和3.5e-6。
表1
表2
表3
表1给出本发明方法的四分支网络实例在Market1501数据集上与其他公开方法进行性能比较的结果,表2给出本发明方法的四分支网络实例在DukeMTMC-ReID数据集上与其他公开方法进行性能比较的结果,表3给出本发明方法的四分支网络实例在CUHK03数据集上与其他公开方法进行性能比较的结果,比较的性能指标mAP为平均精度均值,rank-1代表首位准确度。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神和基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内,不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (9)
1.一种基于图片分块丢弃的分集多支路行人重识别方法,其特征在于,所述行人重识别方法包含以下步骤:
S1:构建多分支卷积神经网络;
S2:针对不同分支采用不同比率的分块裁切操作对训练图片数据进行预处理;
S3:采用双批次数据联合训练的方法训练神经网络模型;
S4:采用交叉熵、三元组损失函数、中心损失函数的加权形式作为总损失函数训练模型权重;
S5:将神经网络所有支路的行人特征进行特征拼接融合,得到总特征,给定测试图片通过总特征计算距离度量,获得相似性匹配结果。
2.根据权利要求1所述的一种基于图片分块丢弃的分集多支路行人重识别方法,其特征在于,步骤S1中,所述多分支卷积神经网络包含主干网以及全局支路、l个局部支路,其中l≥1。
3.根据权利要求1所述的一种基于图片分块丢弃的分集多支路行人重识别方法,其特征在于,所述预处理步骤中,对于一个批次的训练数据X∈Rb×h×w×c,
其中,b、h、w、c分别为每批次图片张数、高、宽、通道数;
图像高、宽的分块丢弃比率分别为rh、rw;
其中,0≤rh,rw≤1,
随机生成的高、宽大小分别为rh×h、rw×w的分块像素丢弃区域,将丢弃区域内的像素值均置为零,每隔Q个训练批次重新随机生成丢弃区域位置,其中Q≥1。
4.根据权利要求3所述的一种基于图片分块丢弃的分集多支路行人重识别方法,其特征在于,所述预处理步骤中,对于l个局部支路,采用不同的高度比率rh对输入训练数据进行分块丢弃操作,rh分别设置为l个不同的值,宽度比率rw保持为1。
5.根据权利要求3所述的一种基于图片分块丢弃的分集多支路行人重识别方法,其特征在于,所述预处理步骤中,对于全局支路,不对输入的训练数据进行分块丢弃操作。
6.根据权利要求3所述的一种基于图片分块丢弃的分集多支路行人重识别方法,其特征在于,预处理步骤还包括宽高归一化为128×384、随机翻转、随机裁切、随机擦除。
7.根据权利要求1所述的一种基于图片分块丢弃的分集多支路行人重识别方法,其特征在于,步骤S3中,所述双批次数据联合训练包括以下步骤:
S3.1:将一个完整训练批次的图片数据均分为两个子批次,对其中一个子批次图片进行步骤S2中所述的图像分块丢弃处理,之后再将两个子批次合并为一个完整批次送入主干网络提取对应特征图;
S3.2:将主干网络提取到的特征图再次分为两个子批次,将对应经过分块丢弃处理的特征图子批次作为输入进入局部支路,未经过分块丢弃处理的特征图子批次进入全局支路;
S3.3:调整高度比率rh后,重复多次训练网络,每次训练保留模型局部支路权重,将l个对应不同高度比率rh的局部支路、一个全局支路和主干网络组合成完整l+1个分支网络,用于测试数据的分集特征提取。
8.根据权利要求1所述的一种基于图片分块丢弃的分集多支路行人重识别方法,其特征在于,步骤S4中,所述采用三种损失函数对网络权重进行优化,分别为交叉熵误差函数LCE、三元组损失函数LTriplet、中心损失函数Lcenter,最终损失函数可表示为:
Ltotal=LCE+γtLTriplet+γcLcenter,
其中γt和γc为权重系数,通过最终损失函数对网络整体权重进行优化。
9.根据权利要求1所述的一种基于图片分块丢弃的分集多支路行人重识别方法,其特征在于,步骤S5中,所述特征拼接融合包括以下步骤:
S5.1:将测试图片输入主干网络;
S5.2:将主干网提取的特征分别送入全局支路以及l个局部支路;
S5.3:将l+1个支路的输出特征拼接后根据欧式距离构建相似度矩阵;
S5.4:根据距离大小进行排序,得到检索候选结果,完成行人重识别任务。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110784276.3A CN113537032B (zh) | 2021-07-12 | 2021-07-12 | 一种基于图片分块丢弃的分集多支路行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110784276.3A CN113537032B (zh) | 2021-07-12 | 2021-07-12 | 一种基于图片分块丢弃的分集多支路行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113537032A true CN113537032A (zh) | 2021-10-22 |
CN113537032B CN113537032B (zh) | 2023-11-28 |
Family
ID=78127452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110784276.3A Active CN113537032B (zh) | 2021-07-12 | 2021-07-12 | 一种基于图片分块丢弃的分集多支路行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113537032B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115100509A (zh) * | 2022-07-15 | 2022-09-23 | 山东建筑大学 | 基于多分支块级注意力增强网络的图像识别方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111259850A (zh) * | 2020-01-23 | 2020-06-09 | 同济大学 | 一种融合随机批掩膜和多尺度表征学习的行人重识别方法 |
CN111507217A (zh) * | 2020-04-08 | 2020-08-07 | 南京邮电大学 | 一种基于局部分辨特征融合的行人重识别方法 |
US20200279131A1 (en) * | 2019-02-28 | 2020-09-03 | Stats Llc | System and method for player reidentification in broadcast video |
CN111814705A (zh) * | 2020-07-14 | 2020-10-23 | 广西师范大学 | 一种基于批次分块遮挡网络的行人再辨识方法 |
CN111931641A (zh) * | 2020-08-07 | 2020-11-13 | 华南理工大学 | 基于权重多样性正则化的行人重识别方法及其应用 |
CN111931624A (zh) * | 2020-08-03 | 2020-11-13 | 重庆邮电大学 | 基于注意力机制的轻量级多分支行人重识别方法及系统 |
CN112818931A (zh) * | 2021-02-26 | 2021-05-18 | 中国矿业大学 | 基于多粒度深度特征融合的多尺度行人重识别方法 |
-
2021
- 2021-07-12 CN CN202110784276.3A patent/CN113537032B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200279131A1 (en) * | 2019-02-28 | 2020-09-03 | Stats Llc | System and method for player reidentification in broadcast video |
CN111259850A (zh) * | 2020-01-23 | 2020-06-09 | 同济大学 | 一种融合随机批掩膜和多尺度表征学习的行人重识别方法 |
CN111507217A (zh) * | 2020-04-08 | 2020-08-07 | 南京邮电大学 | 一种基于局部分辨特征融合的行人重识别方法 |
CN111814705A (zh) * | 2020-07-14 | 2020-10-23 | 广西师范大学 | 一种基于批次分块遮挡网络的行人再辨识方法 |
CN111931624A (zh) * | 2020-08-03 | 2020-11-13 | 重庆邮电大学 | 基于注意力机制的轻量级多分支行人重识别方法及系统 |
CN111931641A (zh) * | 2020-08-07 | 2020-11-13 | 华南理工大学 | 基于权重多样性正则化的行人重识别方法及其应用 |
CN112818931A (zh) * | 2021-02-26 | 2021-05-18 | 中国矿业大学 | 基于多粒度深度特征融合的多尺度行人重识别方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115100509A (zh) * | 2022-07-15 | 2022-09-23 | 山东建筑大学 | 基于多分支块级注意力增强网络的图像识别方法及系统 |
CN115100509B (zh) * | 2022-07-15 | 2022-11-29 | 山东建筑大学 | 基于多分支块级注意力增强网络的图像识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113537032B (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259850B (zh) | 一种融合随机批掩膜和多尺度表征学习的行人重识别方法 | |
CN111259786B (zh) | 一种基于视频的外观和运动信息同步增强的行人重识别方法 | |
CN110298404B (zh) | 一种基于三重孪生哈希网络学习的目标跟踪方法 | |
CN112818931A (zh) | 基于多粒度深度特征融合的多尺度行人重识别方法 | |
CN111126360A (zh) | 基于无监督联合多损失模型的跨域行人重识别方法 | |
CN111767882A (zh) | 一种基于改进yolo模型的多模态行人检测方法 | |
CN111814661A (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
CN112507853B (zh) | 一种基于互注意力机制的跨模态行人重识别方法 | |
CN111539351B (zh) | 一种多任务级联的人脸选帧比对方法 | |
CN112084895B (zh) | 一种基于深度学习的行人重识别方法 | |
CN113610046B (zh) | 一种基于深度视频联动特征的行为识别方法 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN114495010A (zh) | 一种基于多特征学习的跨模态行人重识别方法及系统 | |
CN111401113A (zh) | 一种基于人体姿态估计的行人重识别方法 | |
CN112560604A (zh) | 一种基于局部特征关系融合的行人重识别方法 | |
CN111582154A (zh) | 基于多任务骨架姿态划分部件的行人重识别方法 | |
CN116091946A (zh) | 一种基于YOLOv5的无人机航拍图像目标检测方法 | |
CN115661754A (zh) | 一种基于维度融合注意力的行人重识别方法 | |
CN113723356B (zh) | 异质特征关系互补的车辆重识别方法和装置 | |
CN114627424A (zh) | 一种基于视角转化的步态识别方法和系统 | |
CN113537032B (zh) | 一种基于图片分块丢弃的分集多支路行人重识别方法 | |
CN113111797A (zh) | 一种结合自编码器与视角变换模型的跨视角步态识别方法 | |
CN117392508A (zh) | 一种基于坐标注意力机制的目标检测方法和装置 | |
Roozbahani et al. | Face detection from blurred images based on convolutional neural networks | |
CN114418003B (zh) | 基于注意力机制及多尺寸信息提取的双图像识别分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |