CN117496555A - 基于尺度变换场景学习的行人重识别模型训练方法和装置 - Google Patents
基于尺度变换场景学习的行人重识别模型训练方法和装置 Download PDFInfo
- Publication number
- CN117496555A CN117496555A CN202311436675.6A CN202311436675A CN117496555A CN 117496555 A CN117496555 A CN 117496555A CN 202311436675 A CN202311436675 A CN 202311436675A CN 117496555 A CN117496555 A CN 117496555A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- recognition model
- sample
- scene learning
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 98
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000009466 transformation Effects 0.000 title claims abstract description 58
- 230000006870 function Effects 0.000 claims abstract description 33
- 238000000605 extraction Methods 0.000 claims abstract description 20
- 238000004590 computer program Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 10
- 238000011160 research Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及图像处理技术领域,提供了一种基于尺度变换场景学习的行人重识别模型训练方法和装置。该方法通过获取训练样本并对训练样本进行随机尺度变换预处理,获得对应于训练样本的变换样本;将训练样本和变换样本分别输入至行人重识别模型,获得行人重识别输出结果;行人重识别模型包括特征提取网络、场景学习网络和全连接层;依据目标损失函数迭代更新行人重识别模型的模型参数,直至达到预设的迭代终止条件,以便获得经训练的行人重识别模型;其中目标损失函数由场景学习网络约束损失和分类损失确定。本申请能够在目标样本尺度变化的情况下进行场景学习,提升行人重识别结果精度。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及一种基于尺度变换场景学习的行人重识别模型训练方法和装置。
背景技术
行人重识别(Person Re-Identification,Re-ID)是计算机视觉领域的研究热点之一,其研究目标是为了从不同摄像头捕捉到的行人或同一摄像头不同视频片段中的行人图像是否为同一行人。行人重识别可以视为图像检索任务,是利用计算机视觉技术来检索图像或者视频序列中是否存在相同身份的人,主要解决跨摄像头跨场景下行人的识别和检索。该技术能够根据行人的衣服、体态等相关信息对行人进行认知。但是,在行人重识别任务中,行人尺寸可能变化会非常剧烈,更极端的情况下会出现检测不完全的情况,即只检测到部分人体,这种检测到的人体会对行人重识别算法精度产生较大的影响。
为了解决行人尺寸剧烈变化对行人重识别任务的影响,通常会对原始数据进行增强,但是其未从考虑结合场景进行学习,来提升尺寸变化剧烈场景下的行人重识别结果精度。
因此,如何考虑在目标样本尺度变化的情况下进行场景学习,提升行人重识别结果精度,是需要解决的技术问题。
发明内容
有鉴于此,本申请实施例提供了一种基于尺度变换场景学习的行人重识别模型训练方法、装置、电子设备及存储介质,以解决现有技术在目标样本尺度变化的情况下提升行人重识别结果精度的问题。
本申请实施例的第一方面,提供了一种基于尺度变换场景学习的行人重识别模型训练方法,包括:
获取训练样本并对所述训练样本进行随机尺度变换预处理,获得对应于所述训练样本的变换样本;
将所述训练样本和所述变换样本分别输入至所述行人重识别模型,获得行人重识别输出结果;所述行人重识别模型包括特征提取网络、场景学习网络和全连接层;
依据目标损失函数迭代更新所述行人重识别模型的模型参数,直至达到预设的迭代终止条件,以便获得经训练的所述行人重识别模型;其中所述目标损失函数由场景学习网络约束损失和分类损失确定。
本申请实施例的第二方面,提供了一种基于尺度变换场景学习的行人重识别模型训练装置,所述装置包括:
训练样本获取与预处理模块,被配置为获取训练样本并对所述训练样本进行随机尺度变换预处理,获得对应于所述训练样本的变换样本;
行人重识别输出结果输出模块,被配置为将所述训练样本和所述变换样本分别输入至所述行人重识别模型,获得行人重识别输出结果;所述行人重识别模型包括特征提取网络、场景学习网络和全连接层;
行人重识别模型训练模块,被配置为依据目标损失函数迭代更新所述行人重识别模型的模型参数,直至达到预设的迭代终止条件,以便获得经训练的所述行人重识别模型;其中所述目标损失函数由场景学习网络约束损失和分类损失确定。
本申请实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现第一方面所述方法的步骤。
本申请实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现第一方面所述方法的步骤。
本申请实施例与现有技术相比存在的有益效果至少包括:本申请实施例通过获取训练样本并对训练样本进行随机尺度变换预处理,获得对应于训练样本的变换样本;将训练样本和变换样本分别输入至行人重识别模型,获得行人重识别输出结果;行人重识别模型包括特征提取网络、场景学习网络和全连接层;依据目标损失函数迭代更新行人重识别模型的模型参数,直至达到预设的迭代终止条件,以便获得经训练的行人重识别模型;其中目标损失函数由场景学习网络约束损失和分类损失确定。本申请实施例能够在目标样本尺度变化的情况下进行场景学习,提升行人重识别结果精度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请实施例提供的基于尺度变换场景学习的行人重识别模型训练方法的流程示意图之一;
图2是基于尺度变换场景学习的行人重识别模型结构示意图;
图3是本申请实施例提供的基于尺度变换场景学习的行人重识别模型训练方法的流程示意图之二;
图4是本申请实施例提供的基于尺度变换场景学习的行人重识别模型训练方法的流程示意图之三;
图5是本申请实施例提供的基于尺度变换场景学习的行人重识别模型训练方法的流程示意图之四;
图6是本申请实施例提供的基于尺度变换场景学习的行人重识别模型训练方法的流程示意图之五;
图7是本申请实施例提供的基于尺度变换场景学习的行人重识别模型训练装置的结构示意图;
图8是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
下面将结合附图详细说明根据本申请实施例的一种基于尺度变换场景学习的行人重识别模型训练方法、装置、电子设备和存储介质。
如背景技术所述,行人重识别(Person Re-Identification,Re-ID)是计算机视觉领域的研究热点之一,其研究目标是为了从不同摄像头捕捉到的行人或同一摄像头不同视频片段中的行人图像是否为同一行人。行人重识别可以视为图像检索任务,是利用计算机视觉技术来检索图像或者视频序列中是否存在相同身份的人,主要解决跨摄像头跨场景下行人的识别和检索。该技术能够根据行人的衣服、体态等相关信息对行人进行认知。
传统方法的行人重识别方法主要分为两个步骤:第一步是通过手工或者深度学习的方法从行人图像中提取具有鉴别性的行人图像特征;第二步是根据第一步提取到的行人图像特征与图像库中的行人进行相似度的计算。深度学习进入行人重识别领域,通过把特征提取和相似性度量统一到一个网络模型中不仅能够获得较强的提取行人特征的能力而且识别效率大幅度上升。
在基于深度学习的行人重识别方法中,包括全局特征提取方法和局部特征提取方法。
全局特征提取方法是对输入的行人图像的全局范围内进行没有任何空间信息的特征提取。发明人检索到,现有技术包括:(1)构建能够自动确定最适合的匹配尺度的表征学习模型,来捕获各不相同尺度的特征;(2)将行人重识别中每一个行人都视为单独一类的分类问题进行训练;(3)在原始卷积神经网络中通过增加更多的卷积层来增加网络的深度,从而使改进后的网络可以更好的捕捉图像像素点之间的非线性关系等等。
在遇到复杂外部环境时仅仅依靠全局特征是不能够有效提取的,因此基于局部特征提取方法广泛地应用到行人重识别问题中。发明人检索到的现有技术包括:(1)运用长短时记忆体系结构,提出双线性表示结合全局特征和局部特征进一步增强特征表示;(2)将图像按照预先定义分为几个均等板块分别提取相应板块特征。(3)为捕捉多个身体部位之间的关系,通过将残差网络得到的空间特征分割成多个局部特征,同时将空间特征经过卷积操作形成通道特征,对通道特征也分割成多个局部特征,最后让空间和通道特征相互监督学习;(4)利用人体语义部分对齐来增强模型对复杂背景的鲁棒性,减弱复杂的背景对提取行人特征的影响。
此外,发明人检索到的现有技术还包括结合行人全局特征和局部特征训练可以提升网络模型的性能,例如,采用了结合多种局部特征的方法将特征纵向分割若干个块来提取行人特征。其中一个局部分支中通过在网络末尾加入注意力模块提取行人特征,另一个局部分支将网络提取的特征图采用水平金字塔的结构水平切割成大小不一致的块来提取行人身体不同细粒度的局部特征。通过结合两种局部分支共同学习来充分利用行人身体各部分的信息。
但是,在行人重识别任务中,行人尺寸可能变化会非常剧烈,更极端的情况下,会出现检测不完全的情况,即只检测到部分人体,这种检测到的人体会对行人重识别算法精度产生较大的影响。为了解决行人尺寸剧烈变化对行人重识别任务的影响,通常会对原始数据进行增强,但是其未从考虑结合场景进行学习,来提升尺寸变化剧烈场景下的行人重识别结果精度。
如图1所示,为本申请的一种基于尺度变换场景学习的行人重识别模型训练方法流程图。上述方法包括:
S101:获取训练样本并对上述训练样本进行随机尺度变换预处理,获得对应于上述训练样本的变换样本。
S102:将上述训练样本和上述变换样本分别输入至上述行人重识别模型,获得行人重识别输出结果;上述行人重识别模型包括特征提取网络、场景学习网络和全连接层。
S103:依据目标损失函数迭代更新上述行人重识别模型的模型参数,直至达到预设的迭代终止条件,以便获得经训练的上述行人重识别模型;其中上述目标损失函数由场景学习网络约束损失和分类损失确定。
在一些实施例中,对上述训练样本进行随机尺度变换处理,获得对应于上述训练样本的变换样本,包括依据预设尺度变换比例对上述训练样本进行尺度变换。
在一些实施例中,上述预设尺度变换比例为上述训练样本的原始尺度的0.6倍至1.1倍之间。
具体地,获取到训练样本后,会对训练样本进行数据增强。数据增强的方式之一包括对训练样本图片进行随机尺寸缩放,根据经验值,本发明实施例的具体实现方式中的缩放比例为0.6倍-1.1倍。缩放完成后进行随机裁剪,裁剪到指定的尺寸。因此,经过数据增强后得到一张训练样本图片的两种样本,一种为训练样本原图图片,另一种为经随机变换并裁剪后的训练样本图片;
在一些实施例中,如图2所示,为本申请实施例的行人重识别模型结构示意图。上述行人重识别模型包括特征提取网络、场景学习网络和全连接层。在一些实施例中,上述场景学习网络包括分类层。
在一些实施例中,将上述训练样本和上述变换样本分别输入至上述行人重识别模型,如图3所示,包括:
S311:通过上述特征提取网络,提取对应于上述训练样本的第一样本特征图和对应于上述变换样本的第二样本特征图。
S312:分别基于上述第一样本特征图和上述第二样本特征图,利用KL散度确定上述场景学习网络约束损失。
在一些实施例中,将上述训练样本和上述变换样本分别输入至上述行人重识别模型,如图4所示,还包括:
S313:将上述第一样本特征图和上述第二样本特征图分别通过对应的上述场景学习网络的上述分类层,获得第一场景学习分类特征和第二场景学习分类特征。
S314:分别基于上述第一场景学习分类特征和上述第二场景学习分类特征,确定上述分类损失,上述分类损失包括对应于上述第一场景学习分类特征的第一分类损失和对应于上述第二场景学习分类特征的第二分类损失。
在一些实施例中,将上述训练样本和上述变换样本分别输入至上述行人重识别模型,如图5所示,还包括:
S315:将上述第一场景学习分类特征和上述第二场景学习分类特征输入至全连接层,获得上述行人重识别输出结果。
在一些实施例中,依据目标损失函数迭代更新上述行人重识别模型的模型参数,直至达到预设的迭代终止条件,以便获得经训练的上述行人重识别模型,如图6所示,包括:
S611:按照预设权值对上述第一分类损失、上述第二分类损失和上述场景学习网络约束损失进行加权求和,得到上述目标损失函数。
S612:依据上述目标损失函数,更新上述行人重识别模型的上述模型参数。
本申请实施例通过获取训练样本并对训练样本进行随机尺度变换预处理,获得对应于训练样本的变换样本;将训练样本和变换样本分别输入至行人重识别模型,获得行人重识别输出结果;行人重识别模型包括特征提取网络、场景学习网络和全连接层;依据目标损失函数迭代更新行人重识别模型的模型参数,直至达到预设的迭代终止条件,以便获得经训练的行人重识别模型;其中目标损失函数由场景学习网络约束损失和分类损失确定。本申请实施例能够在目标样本尺度变化的情况下进行场景学习,提升行人重识别结果精度。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请系统实施例中未披露的细节,请参照本申请方法实施例。
图7是本申请实施例提供的一种基于尺度变换场景学习的行人重识别模型训练装置的示意图。如图7所示,该基于尺度变换场景学习的行人重识别模型训练装置包括:
训练样本获取与预处理模块701,被配置为获取训练样本并对上述训练样本进行随机尺度变换预处理,获得对应于上述训练样本的变换样本;
行人重识别输出结果输出模块702,被配置为将上述训练样本和上述变换样本分别输入至上述行人重识别模型,获得行人重识别输出结果;上述行人重识别模型包括特征提取网络、场景学习网络和全连接层;
行人重识别模型训练模块703,被配置为依据目标损失函数迭代更新上述行人重识别模型的模型参数,直至达到预设的迭代终止条件,以便获得经训练的上述行人重识别模型;其中上述目标损失函数由场景学习网络约束损失和分类损失确定。
应理解,本说明书实施例的一种基于尺度变换场景学习的行人重识别模型训练装置还可执行图1至图6中基于尺度变换场景学习的行人重识别模型训练装置执行的方法,并实现基于尺度变换场景学习的行人重识别模型训练装置在图1至图6所示实例的功能,在此不再赘述。同时,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
图8是本申请实施例提供的电子设备8的示意图。如图8所示,该实施例的电子设备8包括:处理器801、存储器802以及存储在该存储器802中并且可在处理器801上运行的计算机程序803。处理器801执行计算机程序803时实现上述各个方法实施例中的步骤。或者,处理器801执行计算机程序803时实现上述各装置实施例中各模块/单元的功能。
电子设备8可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备8可以包括但不仅限于处理器801和存储器802。本领域技术人员可以理解,图8仅仅是电子设备8的示例,并不构成对电子设备8的限定,可以包括比图示更多或更少的部件,或者不同的部件。
存储器802可以是电子设备8的内部存储单元,例如,电子设备8的硬盘或内存。存储器802也可以是电子设备8的外部存储设备,例如,电子设备8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器802还可以既包括电子设备8的内部存储单元也包括外部存储设备。存储器802用于存储计算机程序以及电子设备所需的其它程序和数据。
处理器801可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。处理器801从非易失性存储器中读取对应的计算机程序到内存中然后运行,在逻辑层面上形成共享资源访问控制装置。处理器,执行存储器所存放的程序,并具体用于执行以下操作:
获取训练样本并对上述训练样本进行随机尺度变换预处理,获得对应于上述训练样本的变换样本;
将上述训练样本和上述变换样本分别输入至上述行人重识别模型,获得行人重识别输出结果;上述行人重识别模型包括特征提取网络、场景学习网络和全连接层;
依据目标损失函数迭代更新上述行人重识别模型的模型参数,直至达到预设的迭代终止条件,以便获得经训练的上述行人重识别模型;其中上述目标损失函数由场景学习网络约束损失和分类损失确定。
上述如本说明书图1至图5所示实施例揭示的基于尺度变换场景学习的行人重识别模型训练方法可以应用于处理器801中,或者由处理器801实现。处理器801可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以实现或者执行本说明书实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本说明书实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
当然,除了软件实现方式之外,本说明书实施例的电子设备并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
本说明书实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,该指令当被包括多个应用程序的便携式电子设备执行时,能够使该便携式电子设备执行图1至图5所示实施例的基于尺度变换场景学习的行人重识别模型训练方法,并具体用于执行以下方法:
获取训练样本并对上述训练样本进行随机尺度变换预处理,获得对应于上述训练样本的变换样本;
将上述训练样本和上述变换样本分别输入至上述行人重识别模型,获得行人重识别输出结果;上述行人重识别模型包括特征提取网络、场景学习网络和全连接层;
依据目标损失函数迭代更新上述行人重识别模型的模型参数,直至达到预设的迭代终止条件,以便获得经训练的上述行人重识别模型;其中上述目标损失函数由场景学习网络约束损失和分类损失确定。
总之,以上该仅为本说明书的较佳实施例而已,并非用于限定本说明书的保护范围。凡在本说明书的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本说明书的保护范围之内。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种基于尺度变换场景学习的行人重识别模型训练方法,其特征在于,包括:
获取训练样本并对所述训练样本进行随机尺度变换预处理,获得对应于所述训练样本的变换样本;
将所述训练样本和所述变换样本分别输入至所述行人重识别模型,获得行人重识别输出结果;所述行人重识别模型包括特征提取网络、场景学习网络和全连接层;
依据目标损失函数迭代更新所述行人重识别模型的模型参数,直至达到预设的迭代终止条件,以便获得经训练的所述行人重识别模型;其中所述目标损失函数由场景学习网络约束损失和分类损失确定。
2.根据权利要求1所述的方法,其特征在于,将所述训练样本和所述变换样本分别输入至所述行人重识别模型,包括:
通过所述特征提取网络,提取对应于所述训练样本的第一样本特征图和对应于所述变换样本的第二样本特征图;
分别基于所述第一样本特征图和所述第二样本特征图,利用KL散度确定所述场景学习网络约束损失。
3.根据权利要求2所述的方法,其特征在于,所述场景学习网络包括分类层;以及,将所述训练样本和所述变换样本分别输入至所述行人重识别模型,还包括:
将所述第一样本特征图和所述第二样本特征图分别通过对应的所述场景学习网络的所述分类层,获得第一场景学习分类特征和第二场景学习分类特征;
分别基于所述第一场景学习分类特征和所述第二场景学习分类特征,确定所述分类损失,所述分类损失包括对应于所述第一场景学习分类特征的第一分类损失和对应于所述第二场景学习分类特征的第二分类损失。
4.根据权利要求3所述的方法,其特征在于,将所述训练样本和所述变换样本分别输入至所述行人重识别模型,还包括:
将所述第一场景学习分类特征和所述第二场景学习分类特征输入至全连接层,获得所述行人重识别输出结果。
5.根据权利要求4所述的方法,其特征在于,依据目标损失函数迭代更新所述行人重识别模型的模型参数,直至达到预设的迭代终止条件,以便获得经训练的所述行人重识别模型,包括:
按照预设权值对所述第一分类损失、所述第二分类损失和所述场景学习网络约束损失进行加权求和,得到所述目标损失函数;
依据所述目标损失函数,更新所述行人重识别模型的所述模型参数。
6.根据权利要求1至5任一项所述的方法,其特征在于,对所述训练样本进行随机尺度变换处理,获得对应于所述训练样本的变换样本,包括依据预设尺度变换比例对所述训练样本进行尺度变换。
7.根据权利要求6所述的方法,其特征在于,所述预设尺度变换比例为所述训练样本的原始尺度的0.6倍至1.1倍之间。
8.一种基于尺度变换场景学习的行人重识别模型训练装置,其特征在于,包括:
训练样本获取与预处理模块,被配置为获取训练样本并对所述训练样本进行随机尺度变换预处理,获得对应于所述训练样本的变换样本;
行人重识别输出结果输出模块,被配置为将所述训练样本和所述变换样本分别输入至所述行人重识别模型,获得行人重识别输出结果;所述行人重识别模型包括特征提取网络、场景学习网络和全连接层;
行人重识别模型训练模块,被配置为依据目标损失函数迭代更新所述行人重识别模型的模型参数,直至达到预设的迭代终止条件,以便获得经训练的所述行人重识别模型;其中所述目标损失函数由场景学习网络约束损失和分类损失确定。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器在执行所述计算机程序时,实现如权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311436675.6A CN117496555A (zh) | 2023-10-31 | 2023-10-31 | 基于尺度变换场景学习的行人重识别模型训练方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311436675.6A CN117496555A (zh) | 2023-10-31 | 2023-10-31 | 基于尺度变换场景学习的行人重识别模型训练方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117496555A true CN117496555A (zh) | 2024-02-02 |
Family
ID=89675678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311436675.6A Pending CN117496555A (zh) | 2023-10-31 | 2023-10-31 | 基于尺度变换场景学习的行人重识别模型训练方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117496555A (zh) |
-
2023
- 2023-10-31 CN CN202311436675.6A patent/CN117496555A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112016475B (zh) | 一种人体检测识别方法和装置 | |
CN109063776B (zh) | 图像再识别网络训练方法、装置和图像再识别方法及装置 | |
CN114549913A (zh) | 一种语义分割方法、装置、计算机设备和存储介质 | |
CN114238904A (zh) | 身份识别方法、双通道超分模型的训练方法及装置 | |
CN114821823A (zh) | 图像处理、人脸防伪模型的训练及活体检测方法和装置 | |
CN116912923B (zh) | 一种图像识别模型训练方法和装置 | |
CN116805387B (zh) | 基于知识蒸馏的模型训练方法、质检方法和相关设备 | |
CN113723352A (zh) | 一种文本检测方法、系统、存储介质及电子设备 | |
CN116912632B (zh) | 基于遮挡的目标追踪方法及装置 | |
CN113744280A (zh) | 图像处理方法、装置、设备及介质 | |
CN116912924A (zh) | 一种目标图像识别方法和装置 | |
CN116486153A (zh) | 图像分类方法、装置、设备及存储介质 | |
CN117496555A (zh) | 基于尺度变换场景学习的行人重识别模型训练方法和装置 | |
CN113191401A (zh) | 基于视觉显著性共享的用于三维模型识别的方法及装置 | |
CN113919476A (zh) | 一种图像处理方法、装置、电子设备以及存储介质 | |
CN117437684B (zh) | 一种基于修正注意力的图像识别方法和装置 | |
CN117593619B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN117541979A (zh) | 基于全局特征学习的行人重识别方法和模型训练方法 | |
CN116912518B (zh) | 图像的多尺度特征处理方法及装置 | |
CN115905913B (zh) | 数字藏品的检测方法及装置 | |
CN110866431B (zh) | 人脸识别模型的训练方法、人脸识别的方法和装置 | |
CN114662614A (zh) | 图像分类模型的训练方法、图像分类方法及装置 | |
CN117541977A (zh) | 一种基于行人分割的行人重识别方法和装置 | |
CN115205841A (zh) | 一种车辆品牌识别方法、系统、设备和介质 | |
CN116824194A (zh) | 图像分类模型的训练方法、图像处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |