CN116912633A - 目标追踪模型的训练方法及装置 - Google Patents

目标追踪模型的训练方法及装置 Download PDF

Info

Publication number
CN116912633A
CN116912633A CN202311168750.5A CN202311168750A CN116912633A CN 116912633 A CN116912633 A CN 116912633A CN 202311168750 A CN202311168750 A CN 202311168750A CN 116912633 A CN116912633 A CN 116912633A
Authority
CN
China
Prior art keywords
feature
sample
layer
learning network
pooling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311168750.5A
Other languages
English (en)
Other versions
CN116912633B (zh
Inventor
蒋召
周靖宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Xumi Yuntu Space Technology Co Ltd
Original Assignee
Shenzhen Xumi Yuntu Space Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Xumi Yuntu Space Technology Co Ltd filed Critical Shenzhen Xumi Yuntu Space Technology Co Ltd
Priority to CN202311168750.5A priority Critical patent/CN116912633B/zh
Publication of CN116912633A publication Critical patent/CN116912633A/zh
Application granted granted Critical
Publication of CN116912633B publication Critical patent/CN116912633B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供了一种目标追踪模型的训练方法及装置。该方法包括:串行连接全局平均池化层、批归一化层和全连接层,得到样本对学习网络;串行连接全局最大池化层、残差层、批归一化层和全连接层,得到原型学习网络;将样本对学习网络和原型学习网络并行连接到特征提取网络之后,并将残差层连接到样本对学习网络中的批归一化层,得到目标追踪模型,其中,残差层用于将全局最大池化层和样本对学习网络中的批归一化层的输出相加,将相加的结果输入到原型学习网络中的批归一化层;获取训练数据集,利用训练数据集中的目标样本及其正样本和负样本对目标追踪模型进行训练。采用上述技术手段,解决现有技术中,目标追踪模型准确率低的问题。

Description

目标追踪模型的训练方法及装置
技术领域
本申请涉及目标检测技术领域,尤其涉及一种目标追踪模型的训练方法及装置。
背景技术
目标追踪(Person re-identification)也称行人再识别,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术。常用的目标追踪模型往往存在误检的情况,也就是将其它行人识别为目标行人的现象。
发明内容
有鉴于此,本申请实施例提供了一种目标追踪模型的训练方法、装置、电子设备及计算机可读存储介质,以解决现有技术中,目标追踪模型准确率低的问题。
本申请实施例的第一方面,提供了一种目标追踪模型的训练方法,包括:串行连接全局平均池化层、批归一化层和全连接层,得到样本对学习网络;串行连接全局最大池化层、残差层、批归一化层和全连接层,得到原型学习网络;将样本对学习网络和原型学习网络并行连接到特征提取网络之后,并将残差层连接到样本对学习网络中的批归一化层,得到目标追踪模型,其中,残差层用于将全局最大池化层和样本对学习网络中的批归一化层的输出相加,将相加的结果输入到原型学习网络中的批归一化层;获取训练数据集,利用训练数据集中的目标样本及其正样本和负样本对目标追踪模型进行训练。
本申请实施例的第二方面,提供了一种目标追踪模型的训练装置,包括:第一构建模块,被配置为串行连接全局平均池化层、批归一化层和全连接层,得到样本对学习网络;第二构建模块,被配置为串行连接全局最大池化层、残差层、批归一化层和全连接层,得到原型学习网络;第三构建模块,被配置为将样本对学习网络和原型学习网络并行连接到特征提取网络之后,并将残差层连接到样本对学习网络中的批归一化层,得到目标追踪模型,其中,残差层用于将全局最大池化层和样本对学习网络中的批归一化层的输出相加,将相加的结果输入到原型学习网络中的批归一化层;训练模块,被配置为获取训练数据集,利用训练数据集中的目标样本及其正样本和负样本对目标追踪模型进行训练。
本申请实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本申请实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:因为本申请实施例通过串行连接全局平均池化层、批归一化层和全连接层,得到样本对学习网络;串行连接全局最大池化层、残差层、批归一化层和全连接层,得到原型学习网络;将样本对学习网络和原型学习网络并行连接到特征提取网络之后,并将残差层连接到样本对学习网络中的批归一化层,得到目标追踪模型,其中,残差层用于将全局最大池化层和样本对学习网络中的批归一化层的输出相加,将相加的结果输入到原型学习网络中的批归一化层;获取训练数据集,利用训练数据集中的目标样本及其正样本和负样本对目标追踪模型进行训练。采用上述技术手段,可以解决现有技术中,目标追踪模型准确率低的问题,进而提高目标追踪模型的准确率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请实施例提供的一种目标追踪模型的训练方法的流程示意图;
图2是本申请实施例提供的另一种目标追踪模型的训练方法的流程示意图;
图3是本申请实施例提供的一种目标追踪模型的训练装置的结构示意图;
图4是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
图1是本申请实施例提供的一种目标追踪模型的训练方法的流程示意图。图1的目标追踪模型的训练方法可以由计算机或服务器,或者计算机或服务器上的软件执行。如图1所示,该目标追踪模型的训练方法包括:
S101,串行连接全局平均池化层、批归一化层和全连接层,得到样本对学习网络;
S102,串行连接全局最大池化层、残差层、批归一化层和全连接层,得到原型学习网络;
S103,将样本对学习网络和原型学习网络并行连接到特征提取网络之后,并将残差层连接到样本对学习网络中的批归一化层,得到目标追踪模型,其中,残差层用于将全局最大池化层和样本对学习网络中的批归一化层的输出相加,将相加的结果输入到原型学习网络中的批归一化层;
S104,获取训练数据集,利用训练数据集中的目标样本及其正样本和负样本对目标追踪模型进行训练。
需要说明的是,特征提取网络是backbone网络。目标样本及其正样本同属于一个人,目标样本及其负样本属于两个人,可以用标记区分每个样本所属于的人。利用训练数据集中的目标样本及其正样本和负样本对目标追踪模型进行训练,实际上是按照正样本对和负样本对对目标追踪模型进行训练,目标样本及其正样本是一个正样本对,目标样本及其负样本是一个负样本对。
根据本申请实施例提供的技术方案,串行连接全局平均池化层、批归一化层和全连接层,得到样本对学习网络;串行连接全局最大池化层、残差层、批归一化层和全连接层,得到原型学习网络;将样本对学习网络和原型学习网络并行连接到特征提取网络之后,并将残差层连接到样本对学习网络中的批归一化层,得到目标追踪模型,其中,残差层用于将全局最大池化层和样本对学习网络中的批归一化层的输出相加,将相加的结果输入到原型学习网络中的批归一化层;获取训练数据集,利用训练数据集中的目标样本及其正样本和负样本对目标追踪模型进行训练。采用上述技术手段,可以解决现有技术中,目标追踪模型准确率低的问题,进而提高目标追踪模型的准确率。
进一步地,利用训练数据集中的目标样本及其正样本和负样本对目标追踪模型进行训练,包括:将目标样本、正样本和负样本输入目标追踪模型:通过特征提取网络分别对目标样本、正样本和负样本进行处理,得到第一样本特征、第二样本特征和第三样本特征;通过样本对学习网络对第一样本特征、第二样本特征和第三样本特征进行处理,得到全局平均池化层输出的池化特征以及样本对学习网络中的全连接层输出的第一识别结果;通过原型学习网络对第一样本特征、第二样本特征和第三样本特征进行处理,得到原型学习网络中的批归一化层输出的归一化特征以及原型学习网络中的全连接层输出的第二识别结果,其中,原型学习网络中的批归一化层的输入是残差层将全局最大池化层和样本对学习网络中的批归一化层的输出相加得到的;基于第一识别结果和第二识别结果计算分类损失,基于全局平均池化层输出的池化特征和原型学习网络中的批归一化层输出的归一化特征计算三元组损失;依据分类损失和三元组损失更新目标追踪模型的模型参数,以完成对目标追踪模型训练。
全局最大池化层和样本对学习网络中的批归一化层的输出均作为残差层的输入,残差层将全局最大池化层和样本对学习网络中的批归一化层的输出相加,残差层输出相加的结果,该相加的结果作为原型学习网络中的批归一化层的输入。
图2是本申请实施例提供的另一种目标追踪模型的训练方法的流程示意图。如图2所示,包括:
S201,通过全局平均池化层分别对第一样本特征、第二样本特征和第三样本特征进行处理,得到第一池化特征、第二池化特征和第三池化特征;
S202,通过样本对学习网络中的批归一化层分别对第一池化特征、第二池化特征和第三池化特征进行处理,得到第一归一化特征、第二归一化特征和第三归一化特征;
S203,通过样本对学习网络中的全连接层对第一归一化特征进行处理,得到第一识别结果;
S204,通过全局最大池化层分别对第一样本特征、第二样本特征和第三样本特征进行处理,得到第四池化特征、第五池化特征和第六池化特征;
S205,通过残差层分别将第四池化特征和第一归一化特征相加、将第五池化特征和第二归一化特征相加以及将第六池化特征和第三归一化特征相加,得到第一残差特征、第二残差特征和第三残差特征;
S206,通过原型学习网络中的批归一化层分别对第一残差特征、第二残差特征和第三残差特征进行处理,得到第四归一化特征、第五归一化特征和第六归一化特征;
S207,通过原型学习网络中的全连接层对第四归一化特征进行处理,得到第二识别结果;
S208,基于第一识别结果和第二识别结果计算分类损失,基于第一池化特征、第二池化特征、第三池化特征、第四归一化特征、第五归一化特征和第六归一化特征计算三元组损失;
S209,依据分类损失和三元组损失更新目标追踪模型的模型参数,以完成对目标追踪模型训练。
样本对学习网络对第一样本特征、第二样本特征和第三样本特征进行处理,依次是全局平均池化层分别对第一样本特征、第二样本特征和第三样本特征进行处理,样本对学习网络中的批归一化层分别对全局平均池化层处理得到的第一池化特征、第二池化特征和第三池化特征进行处理,样本对学习网络中的全连接层对批归一化层处理第一池化特征得到的第一归一化特征进行处理。
原型学习网络对第一样本特征、第二样本特征和第三样本特征进行处理,依次是全局最大池化层分别对第一样本特征、第二样本特征和第三样本特征进行处理,残差层将全局最大池化层的输出和该输出对应的归一化特征相加,原型学习网络中的批归一化层分别对残差层处理得到的第一残差特征、第二残差特征和第三残差特征进行处理,原型学习网络中的全连接层对批归一化层处理得到的第四归一化特征进行处理。
进一步地,基于第一识别结果和第二识别结果计算分类损失,包括:利用交叉熵损失函数计算第一识别结果和目标样本对应标签之间的第一分类损失;利用交叉熵损失函数计算第二识别结果和目标样本对应标签之间的第二分类损失;其中,分类损失包括第一分类损失和第二分类损失。
第一识别结果和第二识别结果均是关于目标样本的识别。
进一步地,基于第一池化特征、第二池化特征、第三池化特征、第四归一化特征、第五归一化特征和第六归一化特征计算三元组损失,包括:基于第一池化特征、第二池化特征和第三池化特征,利用三元组损失函数计算第一三元组损失;基于第四归一化特征、第五归一化特征和第六归一化特征,利用三元组损失函数计算第二三元组损失;三元组损失,包括:第一三元组损失和第二三元组损失。
三元组损失函数中存在三个未知参数,第一三元组损失中三元组损失函数中存在三个未知参数是第一池化特征、第二池化特征和第三池化特征。
在一个可选实施例中,将第四归一化特征和第五归一化特征分别减去目标样本所属类中心对应的类中心特征,得到第一中心特征和第二中心特征;将第六归一化特征减去目标样本的负样本所属类中心对应的类中心特征,得到第三中心特征;基于第一中心特征、第二中心特征和第三中心特征,利用三元组损失函数计算第二三元组损失。
实际上,第五归一化特征应该减去目标样本的正样本所属类中心对应的类中心特征,因为目标样本所属类中心和目标样本的正样本所属类中心是一样的,所以可以说第五归一化特征减去目标样本所属类中心对应的类中心特征。目标样本所属类中心对应的类中心特征,是目标样本所属类中心下属的所有样本对应的归一化特征特征或者样本特征求平均得到的。目标样本的负样本所属类中心对应的类中心特征同理。同一个行人的所有图片属于一个类中心,一个类中心表示一个行人。
本申请实施例通过在计算第二三元组损失时引入类中心特征,可以增加原型学习网络对类内的紧凑性(类内是指同一个类中心)和类间的分离性(类间是指不同类中心),也就是增加原型学习网络识别同一个行人以及区分不同行人的准确率。从而显著提升原型学习网络和目标追踪模型的精度和准确率。
在一个可选实施例中,方法还包括:通过样本对学习网络中的全连接层分别对第二归一化特征和第三归一化特征进行处理,得到第三识别结果和第四识别结果;通过原型学习网络中的全连接层分别对第五归一化特征和第六归一化特征进行处理,得到第五识别结果和第六识别结果;计算第一识别结果、第二识别结果、第三识别结果、第四识别结果、第五识别结果和第六识别结果各自对应的分类损失;依据各个识别结果对应的分类损失和三元组损失更新目标追踪模型的模型参数,以完成对目标追踪模型训练。
本申请实施例为了提高目标追踪模型的训练效果,增加了目标样本的正样本和负样本的识别结果对应的分类损失对目标追踪模型的优化。
按照预设权值对第一三元组损失、第二三元组损失、以及所述第一识别结果、所述第二识别结果、所述第三识别结果、所述第四识别结果、所述第五识别结果和所述第六识别结果各自对应的分类损失进行加权求和,得到总损失;依据总损失更新所述目标追踪模型的模型参数,以完成对所述目标追踪模型训练。
进一步地,在完成对目标追踪模型的训练之后,方法还包括:在样本对学习网络和原型学习网络之后连接加权相加层;将待识别的图像或者视频输入目标追踪模型,分别通过样本对学习网络和原型学习网络,得到第一识别分布和第二识别分布;通过加权相加层对第一识别分布和第二识别分布进行加权求和,得到第三识别分布;将第三识别分布中概率最大的识别结果作为待识别的图像或者视频对应的识别结果。
实际上,样本的识别分布是一个概率分布,该概率分布表明该样本为各个行人的概率。上文中的各个识别结果是识别分布中概率最大的识别结果。比如一个识别分布中样本最大概率对应的是A,那么该样本的识别结果为A。本申请实施例综合考虑样本对学习网络和原型学习网络的识别结果,提高最终输出的识别结果的准确率。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图3是本申请实施例提供的一种目标追踪模型的训练装置的示意图。如图3所示,该目标追踪模型的训练装置包括:
第一构建模块301,被配置为串行连接全局平均池化层、批归一化层和全连接层,得到样本对学习网络;
第二构建模块302,被配置为串行连接全局最大池化层、残差层、批归一化层和全连接层,得到原型学习网络;
第三构建模块303,被配置为将样本对学习网络和原型学习网络并行连接到特征提取网络之后,并将残差层连接到样本对学习网络中的批归一化层,得到目标追踪模型,其中,残差层用于将全局最大池化层和样本对学习网络中的批归一化层的输出相加,将相加的结果输入到原型学习网络中的批归一化层;
训练模块304,被配置为获取训练数据集,利用训练数据集中的目标样本及其正样本和负样本对目标追踪模型进行训练。
根据本申请实施例提供的技术方案,串行连接全局平均池化层、批归一化层和全连接层,得到样本对学习网络;串行连接全局最大池化层、残差层、批归一化层和全连接层,得到原型学习网络;将样本对学习网络和原型学习网络并行连接到特征提取网络之后,并将残差层连接到样本对学习网络中的批归一化层,得到目标追踪模型,其中,残差层用于将全局最大池化层和样本对学习网络中的批归一化层的输出相加,将相加的结果输入到原型学习网络中的批归一化层;获取训练数据集,利用训练数据集中的目标样本及其正样本和负样本对目标追踪模型进行训练。采用上述技术手段,可以解决现有技术中,目标追踪模型准确率低的问题,进而提高目标追踪模型的准确率。
在一些实施例中,训练模块304还被配置为将目标样本、正样本和负样本输入目标追踪模型:通过特征提取网络分别对目标样本、正样本和负样本进行处理,得到第一样本特征、第二样本特征和第三样本特征;通过样本对学习网络对第一样本特征、第二样本特征和第三样本特征进行处理,得到全局平均池化层输出的池化特征以及样本对学习网络中的全连接层输出的第一识别结果;通过原型学习网络对第一样本特征、第二样本特征和第三样本特征进行处理,得到原型学习网络中的批归一化层输出的归一化特征以及原型学习网络中的全连接层输出的第二识别结果,其中,原型学习网络中的批归一化层的输入是残差层将全局最大池化层和样本对学习网络中的批归一化层的输出相加得到的;基于第一识别结果和第二识别结果计算分类损失,基于全局平均池化层输出的池化特征和原型学习网络中的批归一化层输出的归一化特征计算三元组损失;依据分类损失和三元组损失更新目标追踪模型的模型参数,以完成对目标追踪模型训练。
在一些实施例中,训练模块304还被配置为通过全局平均池化层分别对第一样本特征、第二样本特征和第三样本特征进行处理,得到第一池化特征、第二池化特征和第三池化特征;通过样本对学习网络中的批归一化层分别对第一池化特征、第二池化特征和第三池化特征进行处理,得到第一归一化特征、第二归一化特征和第三归一化特征;通过样本对学习网络中的全连接层对第一归一化特征进行处理,得到第一识别结果;通过全局最大池化层分别对第一样本特征、第二样本特征和第三样本特征进行处理,得到第四池化特征、第五池化特征和第六池化特征;通过残差层分别将第四池化特征和第一归一化特征相加、将第五池化特征和第二归一化特征相加以及将第六池化特征和第三归一化特征相加,得到第一残差特征、第二残差特征和第三残差特征;通过原型学习网络中的批归一化层分别对第一残差特征、第二残差特征和第三残差特征进行处理,得到第四归一化特征、第五归一化特征和第六归一化特征;通过原型学习网络中的全连接层对第四归一化特征进行处理,得到第二识别结果;基于第一识别结果和第二识别结果计算分类损失,基于第一池化特征、第二池化特征、第三池化特征、第四归一化特征、第五归一化特征和第六归一化特征计算三元组损失;依据分类损失和三元组损失更新目标追踪模型的模型参数,以完成对目标追踪模型训练。
在一些实施例中,训练模块304还被配置为利用交叉熵损失函数计算第一识别结果和目标样本对应标签之间的第一分类损失;利用交叉熵损失函数计算第二识别结果和目标样本对应标签之间的第二分类损失;其中,分类损失包括第一分类损失和第二分类损失。
在一些实施例中,训练模块304还被配置为基于第一池化特征、第二池化特征和第三池化特征,利用三元组损失函数计算第一三元组损失;基于第四归一化特征、第五归一化特征和第六归一化特征,利用三元组损失函数计算第二三元组损失;三元组损失,包括:第一三元组损失和第二三元组损失。
在一些实施例中,训练模块304还被配置为将第四归一化特征和第五归一化特征分别减去目标样本所属类中心对应的类中心特征,得到第一中心特征和第二中心特征;将第六归一化特征减去目标样本的负样本所属类中心对应的类中心特征,得到第三中心特征;基于第一中心特征、第二中心特征和第三中心特征,利用三元组损失函数计算第二三元组损失。
在一些实施例中,训练模块304还被配置为通过样本对学习网络中的全连接层分别对第二归一化特征和第三归一化特征进行处理,得到第三识别结果和第四识别结果;通过原型学习网络中的全连接层分别对第五归一化特征和第六归一化特征进行处理,得到第五识别结果和第六识别结果;计算第一识别结果、第二识别结果、第三识别结果、第四识别结果、第五识别结果和第六识别结果各自对应的分类损失;依据各个识别结果对应的分类损失和三元组损失更新目标追踪模型的模型参数,以完成对目标追踪模型训练。
在一些实施例中,训练模块304还被配置为在样本对学习网络和原型学习网络之后连接加权相加层;将待识别的图像或者视频输入目标追踪模型,分别通过样本对学习网络和原型学习网络,得到第一识别分布和第二识别分布;通过加权相加层对第一识别分布和第二识别分布进行加权求和,得到第三识别分布;将第三识别分布中概率最大的识别结果作为待识别的图像或者视频对应的识别结果。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
图4是本申请实施例提供的电子设备4的示意图。如图4所示,该实施例的电子设备4包括:处理器401、存储器402以及存储在该存储器402中并且可在处理器401上运行的计算机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。
电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备4可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者不同的部件。
处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
存储器402可以是电子设备4的内部存储单元,例如,电子设备4的硬盘或内存。存储器402也可以是电子设备4的外部存储设备,例如,电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器402还可以既包括电子设备4的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备所需的其它程序和数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种目标追踪模型的训练方法,其特征在于,包括:
串行连接全局平均池化层、批归一化层和全连接层,得到样本对学习网络;
串行连接全局最大池化层、残差层、所述批归一化层和所述全连接层,得到原型学习网络;
将所述样本对学习网络和所述原型学习网络并行连接到特征提取网络之后,并将所述残差层连接到所述样本对学习网络中的批归一化层,得到目标追踪模型,其中,所述残差层用于将所述全局最大池化层和所述样本对学习网络中的批归一化层的输出相加,将相加的结果输入到所述原型学习网络中的批归一化层;
获取训练数据集,利用所述训练数据集中的目标样本及其正样本和负样本对所述目标追踪模型进行训练。
2.根据权利要求1所述的方法,其特征在于,利用所述训练数据集中的目标样本及其正样本和负样本对所述目标追踪模型进行训练,包括:
将所述目标样本、所述正样本和所述负样本输入所述目标追踪模型:
通过所述特征提取网络分别对所述目标样本、所述正样本和所述负样本进行处理,得到第一样本特征、第二样本特征和第三样本特征;
通过所述样本对学习网络对所述第一样本特征、所述第二样本特征和所述第三样本特征进行处理,得到所述全局平均池化层输出的池化特征以及所述样本对学习网络中的全连接层输出的第一识别结果;
通过所述原型学习网络对所述第一样本特征、所述第二样本特征和所述第三样本特征进行处理,得到所述原型学习网络中的批归一化层输出的归一化特征以及所述原型学习网络中的全连接层输出的第二识别结果,其中,所述原型学习网络中的批归一化层的输入是所述残差层将所述全局最大池化层和所述样本对学习网络中的批归一化层的输出相加得到的;
基于所述第一识别结果和所述第二识别结果计算分类损失,基于所述全局平均池化层输出的池化特征和所述原型学习网络中的批归一化层输出的归一化特征计算三元组损失;
依据所述分类损失和所述三元组损失更新所述目标追踪模型的模型参数,以完成对所述目标追踪模型训练。
3.根据权利要求2所述的方法,其特征在于,通过所述特征提取网络分别对所述目标样本、所述正样本和所述负样本进行处理,得到第一样本特征、第二样本特征和第三样本特征之后,所述方法还包括:
通过所述全局平均池化层分别对所述第一样本特征、所述第二样本特征和所述第三样本特征进行处理,得到第一池化特征、第二池化特征和第三池化特征;
通过所述样本对学习网络中的批归一化层分别对所述第一池化特征、所述第二池化特征和所述第三池化特征进行处理,得到第一归一化特征、第二归一化特征和第三归一化特征;
通过所述样本对学习网络中的全连接层对所述第一归一化特征进行处理,得到所述第一识别结果;
通过所述全局最大池化层分别对所述第一样本特征、所述第二样本特征和所述第三样本特征进行处理,得到第四池化特征、第五池化特征和第六池化特征;
通过所述残差层分别将所述第四池化特征和所述第一归一化特征相加、将所述第五池化特征和所述第二归一化特征相加以及将所述第六池化特征和所述第三归一化特征相加,得到第一残差特征、第二残差特征和第三残差特征;
通过所述原型学习网络中的批归一化层分别对所述第一残差特征、所述第二残差特征和所述第三残差特征进行处理,得到第四归一化特征、第五归一化特征和第六归一化特征;
通过所述原型学习网络中的全连接层对所述第四归一化特征进行处理,得到所述第二识别结果;
基于所述第一识别结果和所述第二识别结果计算所述分类损失,基于所述第一池化特征、所述第二池化特征、所述第三池化特征、所述第四归一化特征、所述第五归一化特征和所述第六归一化特征计算所述三元组损失;
依据所述分类损失和所述三元组损失更新所述目标追踪模型的模型参数,以完成对所述目标追踪模型训练。
4.根据权利要求3所述的方法,其特征在于,基于所述第一识别结果和所述第二识别结果计算所述分类损失,包括:
利用交叉熵损失函数计算所述第一识别结果和所述目标样本对应标签之间的第一分类损失;
利用所述交叉熵损失函数计算所述第二识别结果和所述目标样本对应标签之间的第二分类损失;
其中,所述分类损失包括所述第一分类损失和所述第二分类损失。
5.根据权利要求3所述的方法,其特征在于,基于所述第一池化特征、所述第二池化特征、所述第三池化特征、所述第四归一化特征、所述第五归一化特征和所述第六归一化特征计算所述三元组损失,包括:
基于所述第一池化特征、所述第二池化特征和所述第三池化特征,利用三元组损失函数计算第一三元组损失;
基于所述第四归一化特征、所述第五归一化特征和所述第六归一化特征,利用所述三元组损失函数计算第二三元组损失;
所述三元组损失,包括:所述第一三元组损失和所述第二三元组损失。
6.根据权利要求3所述的方法,其特征在于,所述方法还包括:
通过所述样本对学习网络中的全连接层分别对所述第二归一化特征和所述第三归一化特征进行处理,得到第三识别结果和第四识别结果;
通过所述原型学习网络中的全连接层分别对所述第五归一化特征和所述第六归一化特征进行处理,得到第五识别结果和第六识别结果;
计算所述第一识别结果、所述第二识别结果、所述第三识别结果、所述第四识别结果、所述第五识别结果和所述第六识别结果各自对应的分类损失;
依据各个识别结果对应的分类损失和所述三元组损失更新所述目标追踪模型的模型参数,以完成对所述目标追踪模型训练。
7.根据权利要求1所述的方法,其特征在于,在完成对所述目标追踪模型的训练之后,所述方法还包括:
在所述样本对学习网络和所述原型学习网络之后连接加权相加层;
将待识别的图像或者视频输入所述目标追踪模型,分别通过所述样本对学习网络和所述原型学习网络,得到第一识别分布和第二识别分布;
通过所述加权相加层对所述第一识别分布和所述第二识别分布进行加权求和,得到第三识别分布;
将所述第三识别分布中概率最大的识别结果作为待识别的图像或者视频对应的识别结果。
8.一种目标追踪模型的训练装置,其特征在于,包括:
第一构建模块,被配置为串行连接全局平均池化层、批归一化层和全连接层,得到样本对学习网络;
第二构建模块,被配置为串行连接全局最大池化层、残差层、所述批归一化层和所述全连接层,得到原型学习网络;
第三构建模块,被配置为将所述样本对学习网络和所述原型学习网络并行连接到特征提取网络之后,并将所述残差层连接到所述样本对学习网络中的批归一化层,得到目标追踪模型,其中,所述残差层用于将所述全局最大池化层和所述样本对学习网络中的批归一化层的输出相加,将相加的结果输入到所述原型学习网络中的批归一化层;
训练模块,被配置为获取训练数据集,利用所述训练数据集中的目标样本及其正样本和负样本对所述目标追踪模型进行训练。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述方法的步骤。
CN202311168750.5A 2023-09-12 2023-09-12 目标追踪模型的训练方法及装置 Active CN116912633B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311168750.5A CN116912633B (zh) 2023-09-12 2023-09-12 目标追踪模型的训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311168750.5A CN116912633B (zh) 2023-09-12 2023-09-12 目标追踪模型的训练方法及装置

Publications (2)

Publication Number Publication Date
CN116912633A true CN116912633A (zh) 2023-10-20
CN116912633B CN116912633B (zh) 2024-01-05

Family

ID=88360616

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311168750.5A Active CN116912633B (zh) 2023-09-12 2023-09-12 目标追踪模型的训练方法及装置

Country Status (1)

Country Link
CN (1) CN116912633B (zh)

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574550A (zh) * 2016-02-02 2016-05-11 北京格灵深瞳信息技术有限公司 一种车辆识别方法及装置
CN109508663A (zh) * 2018-10-31 2019-03-22 上海交通大学 一种基于多层次监督网络的行人重识别方法
CN110399799A (zh) * 2019-06-26 2019-11-01 北京迈格威科技有限公司 图像识别和神经网络模型的训练方法、装置和系统
CN110488811A (zh) * 2019-07-22 2019-11-22 上海有个机器人有限公司 一种基于社交网络模型的机器人对行人轨迹预测的方法
CN111488760A (zh) * 2019-01-25 2020-08-04 复旦大学 基于深度多示例学习的少样本行人重识别方法
CN111523596A (zh) * 2020-04-23 2020-08-11 北京百度网讯科技有限公司 目标识别模型训练方法、装置、设备以及存储介质
CN111881714A (zh) * 2020-05-22 2020-11-03 北京交通大学 一种无监督跨域行人再识别方法
US20210217160A1 (en) * 2018-06-07 2021-07-15 Shiseido Company, Ltd. Commodity Identification Device, Non-Transitory Computer-Readable Storage Medium, and Learning Method
CN113221787A (zh) * 2021-05-18 2021-08-06 西安电子科技大学 基于多元差异性融合的行人多目标跟踪方法
CN113449671A (zh) * 2021-07-08 2021-09-28 北京科技大学 一种多尺度多特征融合的行人重识别方法及装置
US20220222929A1 (en) * 2019-06-28 2022-07-14 Robert Bosch Gmbh Method and device for testing the robustness of an artificial neural network
US20220309633A1 (en) * 2021-03-16 2022-09-29 Monsters Aliens Robots Zombies Inc. Method and system for image processing
US20230004760A1 (en) * 2021-06-28 2023-01-05 Nvidia Corporation Training object detection systems with generated images
US20230040513A1 (en) * 2019-12-19 2023-02-09 Sita Information Networking Computing Uk Limited Image processing system and method
US20230068502A1 (en) * 2021-08-30 2023-03-02 Disney Enterprises, Inc. Multi-Modal Content Based Automated Feature Recognition
CN116343265A (zh) * 2023-03-29 2023-06-27 西安交通大学 一种全监督视频行人重识别方法、系统、设备及介质
CN116403250A (zh) * 2022-12-30 2023-07-07 北京龙智数科科技服务有限公司 存在遮挡的人脸识别方法及装置
CN116434224A (zh) * 2023-05-22 2023-07-14 山东师范大学 一种细粒度图像识别方法及系统
CN116543261A (zh) * 2023-05-12 2023-08-04 上海领世通信技术发展有限公司 用于图像识别的模型训练方法、图像识别方法设备及介质

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574550A (zh) * 2016-02-02 2016-05-11 北京格灵深瞳信息技术有限公司 一种车辆识别方法及装置
US20210217160A1 (en) * 2018-06-07 2021-07-15 Shiseido Company, Ltd. Commodity Identification Device, Non-Transitory Computer-Readable Storage Medium, and Learning Method
CN109508663A (zh) * 2018-10-31 2019-03-22 上海交通大学 一种基于多层次监督网络的行人重识别方法
CN111488760A (zh) * 2019-01-25 2020-08-04 复旦大学 基于深度多示例学习的少样本行人重识别方法
CN110399799A (zh) * 2019-06-26 2019-11-01 北京迈格威科技有限公司 图像识别和神经网络模型的训练方法、装置和系统
US20220222929A1 (en) * 2019-06-28 2022-07-14 Robert Bosch Gmbh Method and device for testing the robustness of an artificial neural network
CN110488811A (zh) * 2019-07-22 2019-11-22 上海有个机器人有限公司 一种基于社交网络模型的机器人对行人轨迹预测的方法
US20230040513A1 (en) * 2019-12-19 2023-02-09 Sita Information Networking Computing Uk Limited Image processing system and method
CN111523596A (zh) * 2020-04-23 2020-08-11 北京百度网讯科技有限公司 目标识别模型训练方法、装置、设备以及存储介质
CN111881714A (zh) * 2020-05-22 2020-11-03 北京交通大学 一种无监督跨域行人再识别方法
US20220309633A1 (en) * 2021-03-16 2022-09-29 Monsters Aliens Robots Zombies Inc. Method and system for image processing
CN113221787A (zh) * 2021-05-18 2021-08-06 西安电子科技大学 基于多元差异性融合的行人多目标跟踪方法
US20230004760A1 (en) * 2021-06-28 2023-01-05 Nvidia Corporation Training object detection systems with generated images
CN113449671A (zh) * 2021-07-08 2021-09-28 北京科技大学 一种多尺度多特征融合的行人重识别方法及装置
US20230068502A1 (en) * 2021-08-30 2023-03-02 Disney Enterprises, Inc. Multi-Modal Content Based Automated Feature Recognition
CN116403250A (zh) * 2022-12-30 2023-07-07 北京龙智数科科技服务有限公司 存在遮挡的人脸识别方法及装置
CN116343265A (zh) * 2023-03-29 2023-06-27 西安交通大学 一种全监督视频行人重识别方法、系统、设备及介质
CN116543261A (zh) * 2023-05-12 2023-08-04 上海领世通信技术发展有限公司 用于图像识别的模型训练方法、图像识别方法设备及介质
CN116434224A (zh) * 2023-05-22 2023-07-14 山东师范大学 一种细粒度图像识别方法及系统

Also Published As

Publication number Publication date
CN116912633B (zh) 2024-01-05

Similar Documents

Publication Publication Date Title
CN113627361B (zh) 人脸识别模型的训练方法、装置及计算机程序产品
CN116403250A (zh) 存在遮挡的人脸识别方法及装置
CN116612500B (zh) 行人重识别模型训练方法及装置
CN116912635B (zh) 目标追踪方法及装置
CN116912632B (zh) 基于遮挡的目标追踪方法及装置
CN116912636B (zh) 目标识别方法及装置
CN115984783B (zh) 人群计数方法及装置
CN116912633B (zh) 目标追踪模型的训练方法及装置
CN116912634B (zh) 目标追踪模型的训练方法及装置
CN116912920B (zh) 表情识别方法及装置
CN116912518B (zh) 图像的多尺度特征处理方法及装置
CN116912631B (zh) 目标识别方法、装置、电子设备及存储介质
CN117372685B (zh) 目标检测方法、装置、电子设备及存储介质
CN117372818B (zh) 目标重识别方法及装置
CN115147871B (zh) 遮挡环境下行人再识别方法
CN117475215A (zh) 目标识别模型的训练方法及装置
CN116935167B (zh) 目标追踪模型的训练方法及装置
CN109711328B (zh) 一种人脸识别方法、装置及电子设备
CN118036704A (zh) 基于跨层特征对齐的知识蒸馏方法及装置
CN115862117A (zh) 存在遮挡的人脸识别方法及装置
CN117423047A (zh) 基于特征图像的计数方法、装置、电子设备及存储介质
CN117475136A (zh) 目标对象的图像确定方法及装置
CN117893790A (zh) 基于特征对齐的目标重识别方法及装置
CN117893569A (zh) 目标追踪方法、装置、电子设备及存储介质
CN115937929A (zh) 针对难例样本的人脸识别模型的训练方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant