CN115471671A - 一种网络模型的训练方法、目标识别方法及相关设备 - Google Patents

一种网络模型的训练方法、目标识别方法及相关设备 Download PDF

Info

Publication number
CN115471671A
CN115471671A CN202210983598.5A CN202210983598A CN115471671A CN 115471671 A CN115471671 A CN 115471671A CN 202210983598 A CN202210983598 A CN 202210983598A CN 115471671 A CN115471671 A CN 115471671A
Authority
CN
China
Prior art keywords
network
training
network model
value
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210983598.5A
Other languages
English (en)
Inventor
曾祁泽
殷俊
朱树磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN202210983598.5A priority Critical patent/CN115471671A/zh
Publication of CN115471671A publication Critical patent/CN115471671A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种网络模型的训练方法、目标识别方法及相关设备,该训练方法包括:获取至少两个训练集;获取与训练集数量对应的至少两个网络模型,其中至少两个网络模型具有相同的网络结构;利用各训练集中的训练样本图像对对应的网络模型进行迭代训练,以使得网络模型基于训练样本图像对自身的网络参数进行调整;响应于迭代训练达到预设的互学习条件,在至少两个网络模型的相同位置的网络参数之间进行互学习;响应于至少两个网络模型训练完成,从至少两个网络模型中确定出最终的网络模型。通过上述方式,本申请得到的网络模型能够精确识别多场景下的图像。

Description

一种网络模型的训练方法、目标识别方法及相关设备
技术领域
本申请涉及目标识别技术领域,具体涉及一种网络模型的训练方法、目标识别方法及相关设备。
背景技术
网络模型的性能与用于网络模型训练的训练样本集强相关,而在不同应用场景下采集到的训练样本图像通常存在较大的差异,则为了保证网络模型的训练效果,可在网络模型的训练阶段用到多种不同类型的训练样本集。然而由于不同类型的训练样本集的图像数据分布具有较大差异,同时引入多个不同类型的训练样本集对网络模型进行训练,可能会对网络模型的训练产生不利影响,严重时甚至会导致网络模型的训练无法收敛;而若针对不同的应用场景,分别用不同类型的训练样本集去训练不同的网络模型,容易导致单个网络模型本身的泛化能力差,无法具备多场景图像下的目标识别能力,识别精度较差;综上,目前的网络模型不具备对多场景图像的识别能力。
发明内容
本申请提供一种网络模型的训练方法、目标识别方法及相关设备,能够使得得到的网络模型精确识别多场景下的图像。
为解决上述技术问题,本申请采用的技术方案是:提供一种网络模型的训练方法,该训练方法包括:获取至少两个训练集;每个训练集分别包含不同应用场景下的多个训练样本图像;获取与训练集数量对应的至少两个网络模型,其中至少两个网络模型具有相同的网络结构;利用各训练集中的训练样本图像对对应的网络模型进行迭代训练,以使得网络模型基于训练样本图像对自身的网络参数进行调整;响应于迭代训练达到预设的互学习条件,在至少两个网络模型的相同位置的网络参数之间进行互学习;响应于至少两个网络模型未训练完成,返回利用各训练集中的训练样本图像对对应的网络模型进行迭代训练的步骤;响应于至少两个网络模型训练完成,从至少两个网络模型中确定出最终的网络模型。
为解决上述技术问题,本申请采用的技术方案是:提供一种目标识别方法,该目标识别方法包括:将待识别图像输入网络模型,得到目标对象的待识别特征;其中,网络模型为利用上述技术方案中的网络模型的训练方法训练得到的最终的网络模型;对待识别特征与比对特征进行相似度计算,得到相似度值;基于相似度值,得到目标识别结果。
为解决上述技术问题,本申请采用的另一技术方案是:提供一种网络模型的训练装置,网络模型的训练装置包括互相连接的存储器和处理器,其中,存储器用于存储计算机程序,计算机程序在被处理器执行时,其用于实现上述技术方案中的网络模型的训练方法。
为解决上述技术问题,本申请采用的另一技术方案是:提供一种目标识别装置,目标识别装置包括互相连接的存储器和处理器,其中,存储器用于存储计算机程序,计算机程序在被处理器执行时,其用于实现上述技术方案中的目标识别方法。
为解决上述技术问题,本申请采用的又一技术方案是:提供一种计算机可读存储介质,其用于存储计算机程序,计算机程序在被处理器执行时,用于实现上述技术方案中的网络模型的训练方法或目标识别方法。
通过上述方案,本申请的有益效果是:通过利用不同类型的训练集对对应的网络模型进行单独训练,能够避免多种不同类型的训练集在训练过程中互相干扰,导致的网络模型无法收敛的情况发生,提升训练效果;与此同时,在迭代训练达到预设的互学习条件时,在至少两个网络模型的相同位置的网络参数之间进行互学习,从而使得各个网络模型能够单独学习到对应场景下的特征识别能力,还能够与其他网络模型相互学习,学习其他场景下的特征识别能力,从而大大提升网络模型的泛化能力,使得训练得到的网络模型能够精确识别多场景下的图像,解决网络模型仅能识别单场景下的图像的技术问题;同时无需对多个训练集进行关联,使得训练集更容易获取;此外,在所有网络模型训练完成后,仅需保留其中一个网络模型即可,能够在提高识别精度的同时,降低计算成本,提升了网络模型的易用性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。其中:
图1是本申请提供的网络模型的训练方法一实施例的流程示意图;
图2是本申请提供的网络模型训练的结构示意图;
图3是本申请提供的网络模型的训练方法另一实施例的流程示意图;
图4是本申请提供的步骤34一实施例的流程示意图;
图5是本申请提供的目标识别方法一实施例的流程示意图;
图6是本申请提供的网络模型的训练装置一实施例的结构示意图;
图7是本申请提供的目标识别装置一实施例的结构示意图;
图8是本申请提供的计算机可读存储介质一实施例的结构示意图。
具体实施方式
下面结合附图和实施例,对本申请作进一步的详细描述。特别指出的是,以下实施例仅用于说明本申请,但不对本申请的范围进行限定。同样的,以下实施例仅为本申请的部分实施例而非全部实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
需要说明的是,本申请中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
请参阅图1,图1是本申请提供的网络模型的训练方法一实施例的流程示意图,该方法包括:
步骤11:获取至少两个训练集。
获取至少两个训练集,每个训练集可分别包含不同应用场景下的多个训练样本图像,输入网络模型的训练样本图像可为经过裁剪、对齐或缩放等图像处理后,得到的符合网络模型的输入尺寸的图像。
具体地,训练集可包括训练样本图像以及其对应的真实标签,可采集不同应用场景下的训练样本图像,然后对所有训练样本图像进行真实标签的标注,然后再对标注后的所有训练样本图像进行分类,从而得到至少两个训练集;通过利用实际应用场景下的训练样本图像,能够为网络模型在实际业务场景下的识别性能提供保障。
以人脸识别为例,在不同应用场景下采集到的人脸图像通常存在较大的差异,例如:出入口闸机处的摄像设备采集到的往往是无遮挡的正面人脸图像;楼宇监控设备由于安装高度和角度的原因,通常会抓拍到具有一定偏转角度的人脸图像;而对于公交车或医院等人群密集场所,摄像设备采集到的人脸图像通常存在遮挡情况;如果是高速公路上的抓拍设备,由于抓拍距离较远,且需要兼顾车辆或车牌等结构化信息,采集到的人脸图像通常存在模糊、小尺寸或车窗遮挡等问题。
进一步地,在网络模型的训练过程中,若仅以上述举例中的某一应用场景下的人脸图像作为训练集对网络模型进行训练,容易导致网络模型的泛化能力较差,在其他场景下无法准确识别目标;则此时为了提升人脸识别的精度,可获取不同应用场景下的训练样本图像作为训练集;可以理解地,可利用不同应用场景采集到的训练样本图像或同一应用场景下通过不同采集角度采集到的训练样本图像作为训练集,从而提升网络模型在不同场景下的泛化能力,使得网络模型具备精确识别多场景图像的能力。
步骤12:获取与训练集数量对应的至少两个网络模型。
网络模型的数量与不同类型的训练集的数量相同,在获取到至少两个网络模型之后,可对每个网络模型分别进行网络初始化,以为后续训练步骤作准备;具体地,网络初始化可包括设置网络模型的初始化网络参数以及训练参数,其中,训练参数可包括学习率、损失函数或最大迭代次数等。
可以理解地,网络模型的类型可根据实际应用情况进行选择,其可为生物特征识别模型或非生物特征识别模型,例如:人脸特征识别模型或车辆特征识别模型等;具体地,每个网络模型具有相同的网络结构,网络模型的具体网络结构可自行设计,也可采用现有的用于特征识别的神经网络模型,例如:残差神经网络(Deep residual network,ResNet)或GoogleNet(Google Inception Net)等,在此不对网络模型的类型和具体网络结构进行限定。
步骤13:利用各训练集中的训练样本图像对对应的网络模型进行迭代训练,以使得网络模型基于训练样本图像对自身的网络参数进行调整。
利用各训练集对对应的网络模型进行迭代训练,以使得网络模型基于训练样本图像对自身的网络参数进行调整;具体地,可利用不同应用场景下的训练集单独训练对应的网络模型,从而使得每个网络模型能够单独学习到不同场景下的目标识别能力。通过利用各训练集对对应的网络模型进行迭代训练,能够避免使用多种不同应用场景下的训练集去训练同一个网络模型时,由于多种不同应用场景下的训练集在训练过程中互相干扰,导致的网络模型无法收敛的情况,从而有效提升训练效果,提高网络模型对多场景图像的识别精度。
可以理解地,每个网络模型的训练过程是相互独立的,各个网络模型的训练方式可相同也可不同,各个网络模型的迭代训练过程可同步也可不同步,在此不对每个网络模型的训练方式进行限定。
步骤14:响应于迭代训练达到预设的互学习条件,在至少两个网络模型的相同位置的网络参数之间进行互学习。
响应于迭代训练达到预设的互学习条件,在至少两个网络模型的相同位置的网络参数之间进行互学习,通过各个网络模型间的互学习,使得每个网络模型能够互相学习不同场景下的目标识别能力,从而使得网络模型在多个不同应用场景下具有普适性。具体地,网络模型的数量为两个或两个以上,可在每个网络模型的迭代训练都达到预设的互学习条件时,在至少两个网络模型的相同位置的网络参数之间进行互学习;其中,相同位置的网络参数可表示同一网络层对应的网络参数。
如图2所示,以至少两个训练集包括训练集A与训练集B,至少两个网络模型包括网络模型1与网络模型2为例,网络模型1与网络模型2可采用标准的神经网络训练方法单独进行训练,即将训练集A输入网络模型1,将训练集B输入网络模型2,训练集A以及训练集B分别经过网络模型1与网络模型2的前向传播得到各自的网络输出,然后网络模型1基于其得到的网络输出与训练集A对应的真实标签计算损失函数值L1,网络模型2基于其得到的网络输出与训练集B对应的真实标签计算损失函数值L2,然后网络模型1与网络模型2再分别基于各自的损失函数值利用误差反向传播算法(error Back Propagation,BP)对各自的网络参数进行调整;在网络模型1与网络模型2达到预设的互学习条件之后,网络模型1与网络模型2在相同位置的网络参数之间进行互学习。
步骤15:响应于至少两个网络模型训练完成,从至少两个网络模型中确定出最终的网络模型。
响应于至少两个网络模型未训练完成,返回步骤13;响应于至少两个网络模型训练完成,可从至少两个网络模型中确定出最终的网络模型;具体地,可随机从至少两个网络模型中选择一个网络模型作为最终的网络模型,或者还可根据每个网络模型的精度测试结果择优选择一个网络模型作为最终的网络模型,在此不对最终的网络模型的选取过程进行限定。
进一步地,网络模型训练完成的训练终止条件可包括:损失收敛,即上一损失与当前损失值的差值小于设定值;判定当前损失值是否小于预设损失,该预设损失为预先设置的损失阈值,若当前损失值小于预设损失,则确定达到预设停止条件;迭代次数达到最大迭代次数(例如:训练10000次);或者使用测试集进行测试时获得的准确率达到设定条件(比如:超过预设准确率)等。
本实施例通过利用不同类型的训练集对对应的网络模型进行单独训练,能够避免多种不同类型的训练集在训练过程中互相干扰,导致的网络模型无法收敛的情况发生,提升训练效果;与此同时,在迭代训练达到预设的互学习条件时,在至少两个网络模型的相同位置的网络参数之间进行互学习,从而使得各个网络模型能够单独学习到对应场景下的特征识别能力,还能够与其他网络模型相互学习,学习其他场景下的特征识别能力,从而大大提升网络模型的泛化能力,使得训练得到的网络模型能够精确识别多场景下的图像,解决网络模型仅能识别单场景下的图像的技术问题;同时无需对多个训练集进行关联,使得训练集更容易获取;此外,在所有网络模型训练完成后,仅需保留其中一个网络模型即可,能够在提高识别精度的同时,降低计算成本,提升了网络模型的易用性。
请参阅图3,图3是本申请提供的网络模型的训练方法另一实施例的流程示意图,该方法包括:
步骤31:获取至少两个训练集。
步骤31与上述实施例中的步骤11相同,在此不作限定。
步骤32:获取与训练集数量对应的至少两个网络模型。
步骤32与上述实施例中的步骤12相同,在此不作限定。
步骤33:利用各训练集中的训练样本图像对对应的网络模型进行迭代训练,以使得网络模型基于训练样本图像对自身的网络参数进行调整。
步骤33与上述实施例中的步骤13相同,在此不作限定。
步骤34:响应于迭代训练达到预设的互学习条件,在至少两个网络模型的相同位置的网络参数之间进行互学习。
响应于迭代训练达到预设的互学习条件,在至少两个网络模型的相同位置的网络参数之间进行互学习;具体地,如图4所示,步骤34的具体内容如步骤41~步骤44所示:
步骤41:响应于各网络模型的当前迭代次数达到预设的次数阈值,判定迭代训练达到互学习条件。
响应于各网络模型的当前迭代次数达到预设的次数阈值,判断迭代训练达到互学习条件;预设的次数阈值可为一个、两个或两个以上,预设的次数阈值的个数与具体数值可根据实际经验或实际应用情况进行设置,可以理解地,在设置多个预设的次数阈值时,可采用间隔设置的方式,以使得各网络模型的单独训练与互学习交替进行,其中,每个预设的次数阈值之间的间隔可相等也可不等,在此不作限定;例如:根据经验得知,在各网络模型每进行10次迭代训练之后执行一次互学习可达到较好的学习效果,则此时可等间隔设置多个次数阈值,如10、20、30等。
具体地,由于各网络模型的训练过程是独立的,每个网络模型迭代训练的进度可同步也可不同,在网络模型迭代训练的进度不一致时,迭代次数先达到预设的次数阈值的网络模型可先暂停训练,等待其他网络模型迭代次数都达到预设的次数阈值时,再开始执行后续的互学习操作。
可以理解地,预设的次数阈值均小于每个网络模型的最大迭代次数,每个网络模型对应的最大迭代次数相同,从而保证每个网络模型的互学习进度保持一致。其中,预设的首个次数阈值可设置在训练中后期,由于网络模型的训练初期,网络模型的性能并不稳定,其识别能力也有限,各个网络模型需要更多地基于各自对应的训练集,提升对某一对应场景下的特征识别能力。在网络模型的训练中后期,各个网络模型对对应场景下的特征识别能力已达到较高的水平,则此时便可在每个网络模型的相同位置的网络参数之间进行互学习,从而提高模型的鲁棒性和泛化能力,实现更好的训练效果。
步骤42:从至少两个网络模型中选择任一网络模型作为待更新网络模型。
步骤43:将待更新网络模型和其他网络模型中位置相同的网络参数进行加权求和,以将求和值作为待更新网络模型的互学习后的网络参数。
从至少两个网络模型选择待更新网络模型,然后将待更新网络模型和其他网络模型中位置相同的网络参数进行加权求和,从而对待更新网络模型每个位置的网络参数进行调整,进而学习其他网络模型的特征识别能力。
具体地,将待更新网络模型和其他网络模型中位置相同的网络参数进行加权求和的方案可包括:获取第一权重与第二权重;然后以第一权重作为待更新网络模型的网络参数的权重值,以第二权重作为其他网络模型的网络参数的权重值。其中,第一权重随迭代训练逐步减小,并且/或者第二权重随迭代训练逐步增大,以使得待更新网络模型的网络参数除了根据其对应的训练集进行调整外,随着迭代次数的增大,开始学习其他网络模型的网络参数,以学习不同场景下的特征识别能力,从而提高网络模型的鲁棒性和泛化能力,并且通过对权重的动态调整,还能够防止过拟合的情况出现。
进一步地,获取第一权重与第二权重的方案可包括:基于至少两个网络模型的总数量、当前迭代次数以及最大迭代次数,计算得到第一权重;基于第一权重与至少两个网络模型的总数量,计算得到第二权重;其中,第一权重与当前迭代次数负相关,第二权重与第一权重负相关。
具体地,可通过以下公式(1)计算第一权重:
Figure BDA0003801154040000091
其中,在上式(1)中,b1为第一权重,N为至少两个网络模型的总数量,x为当前迭代次数,E为最大迭代次数。
可通过以下公式(2)计算第二权重:
Figure BDA0003801154040000092
其中,在上式(2)中,b2为第二权重。
由上述公式(1)与公式(2)可知,在迭代次数为0时,第一权重b1等于1,第二权重b2等于0,此时网络模型只基于其对应的训练集进行学习,不学习其他网络模型的网络参数;随着当前迭代次数的增大,第一权重b1逐渐减少,第二权重b2逐渐增大,当前网络模型开始慢慢侧重于学习其他网络模型的网络参数;直至当前迭代次数达到最大迭代次数,第一权重b1与第二权重都为1/N,网络模型对训练集以及其他网络模型的学习达到均衡。
综上,可通过以下公式(3)将待更新网络模型和其他网络模型中位置相同的网络参数进行加权求和:
Figure BDA0003801154040000101
其中,在上式(3)中,w'为互学习前的网络参数,w为待更新网络模型互学习前的网络参数,wi为其他网络模型中第i个网络模型和待更新网络模型的位置相同的网络参数。
步骤44:在待更新网络模型的网络参数更新完成后,从至少两个网络模型中选择另一网络模型作为待更新网络模型,直至所有网络模型遍历完毕。
在待更新网络模型的网络参数更新完成后,从至少两个网络模型中选择另一网络模型作为待更新网络模型,直至所有网络模型遍历完毕;可以理解地,在其他实施方式中,每个网络模型可同时进行互学习操作,即每个网络模型可同时执行步骤43,以获得各自对应的互学习后的网络参数。
具体地,在每个待更新网络模型获得各自对应的互学习后的网络参数后,还需要判断其是否需要更新,具体如步骤35~步骤38所示。
步骤35:获取待更新网络模型在互学习前的网络参数下的第一损失值以及在互学习后的网络参数下对应的第二损失值。
获取待更新网络模型在互学习前的网络参数下的第一损失值以及在互学习后的网络参数下对应的第二损失值;具体地,可将训练样本图像输入互学习前的网络参数下的待更新网络模型,得到第一识别结果;将训练样本图像输入互学习后的网络参数下的待更新网络模型,得到第二识别结果;然后基于第一识别结果与对应的真实标签,计算得到第一损失值;基于第二识别结果与对应的真实标签,计算得到第二损失值。可以理解地,在此不对计算第一损失值与第二损失值所采用的损失函数进行限定,损失函数可为模型训练中常规的损失函数,例如:交叉熵损失函数。
步骤36:将第一损失值与第二损失值相减,得到损失变化值。
将第一损失值与第二损失值相减,得到损失变化值;具体地,损失变化值大于0时,说明互学习后的网络模型的损失值降低,损失变化值小于0时,说明互学习后的网络模型的损失值增加。
可以理解地,在其他实施方式中,还可将第二损失值与第一损失值相减,得到损失变化值,然后在损失变化值大于0时,说明互学习后的网络模型的损失值增加,损失变化值小于0时,说明互学习后的网络模型的损失值降低,在此不对损失变化值的计算过程进行限定。
步骤37:基于损失变化值,计算得到更新概率值。
基于损失变化值,计算得到更新概率值;具体地,本实施例中的更新概率值用于表示待更新网络模型更新网络参数的概率,更新概率值越大,待更新网络模型更新网络参数的概率越小,更新概率值越小,待更新网络模型更新网络参数的概率越大;更新概率值与损失变化值正相关,响应于损失变化值大于预设的损失阈值,可确定更新概率值为第一预设数值;响应于损失变化值小于或等于损失阈值,基于预设退火温度值与损失变化值计算得到更新概率值;其中,预设的损失阈值可为0,第一预设数值为1,在损失变化值大于0时,说明互学习后的网络模型的损失值降低,则此时可确定更新概率值为1,表示待更新网络模型更新网络参数的概率较小;在损失变化值小于或等于0时,说明互学习后的网络模型的损失值不变或者增加,则此时再进一步基于预设退火温度值与损失变化值计算得到更新概率值。
进一步地,更新概率值进一步与退火温度值负相关,退火温度值随迭代训练逐步减小,从而在网络模型的训练初期,网络模型能够尽可能增大搜索空间,在一定概率下(即更新概率值对应的概率)接受使网络模型变差的网络参数的更新,能够避免网络模型陷入局部最优;而随着迭代次数的增加,退火温度值逐步减小,更新概率值增加,网络模型接受网络参数更新的概率变小,以使得在网络模型的训练后期,网络模型会更加关注于挖掘解空间的深度,使得网络收敛到一个较好的解。
具体地,基于预设退火温度值与损失变化值计算得到更新概率值的方法如下公式(4)所示:
Figure BDA0003801154040000111
其中,在上式(4)中,P为更新概率值,ΔL为损失变化值,T为预设退火温度值。
步骤38:基于更新概率值,确定是否利用互学习后的网络参数对互学习前的网络参数进行更新。
基于更新概率值,确定是否利用互学习后的网络参数对互学习前的网络参数进行更新;具体地,可针对待更新网络模型的每个网络参数,在预设数值区间内生成一随机数;然后响应于随机数大于更新概率值,保持互学习前的网络参数不变,响应于随机数小于或等于更新概率值,利用互学习后的网络参数对互学习前的网络参数进行更新;其中,预设数值区间可为[0,1],可在该数值区间内生成一随机数,然后通过随机数与更新概率值之间的大小关系选择是否对待更新网络模型的网络参数更新。
在另一实施方式中,还可响应于随机数小于或等于更新概率值,保持互学习前的网络参数不变,响应于随机数大于更新概率值,利用互学习后的网络参数对互学习前的网络参数进行更新,在此不作限定。
步骤39:响应于至少两个网络模型训练完成,从至少两个网络模型中确定出最终的网络模型。
步骤39与上述实施例中的步骤15相同,在此不作赘述。
下面以网络模型的人脸特征识别模型为例进行说明,本实施例中的网络模型的训练方法可用于训练出兼具在人脸有口罩遮挡场景下和人脸无遮挡场景下的人脸特征识别能力的人脸特征识别模型,具体训练步骤如下述S1~S6所示。
S1:获取两个训练集:训练集A与训练集B,其中,训练集A包含人脸有口罩遮挡的人脸样本图像,训练集B包含人脸无遮挡的人脸样本图像。
S2:基于残差网络获取两个网络结构相同的人脸特征识别模型:人脸特征识别模型A和人脸特征识别模型B,然后对人脸特征识别模型A和人脸特征识别模型B分别进行网络初始化;其中,设置互学习的迭代次数间隔为10与设置最大迭代次数为100。
S3:可基于加性角度间隔损失函数(Additive Angular Margin Loss,ArcFace),利用训练集A对人脸特征识别模型A进行训练,利用训练集B对人脸特征识别模型B进行训练。
S4:每间隔10个迭代次数,进入S5,若当前迭代次数已达到最大迭代次数100,则进入S6。
S5:在人脸特征识别模型A和人脸特征识别模型B的相同位置的网络参数之间进行互学习,具体包括a~e:
a.根据上述公式(1)和公式(2)计算第一权重和第二权重。
b.将人脸特征识别模型A作为待更新网络模型,基于第一权重与第二权重,将人脸特征识别模型A和人脸特征识别模型B中位置相同的网络参数进行加权求和,得到人脸特征识别模型A中每个网络层对应的互学习后的网络参数;同理,将人脸特征识别模型B作为待更新网络模型,基于第一权重与第二权重,将人脸特征识别模型B和人脸特征识别模型A中位置相同的网络参数进行加权求和,得到人脸特征识别模型B中每个网络层对应的互学习后的网络参数。
c.对于人脸特征识别模型A,基于互学习前的网络参数和互学习后的网络参数分别进行损失值计算,并计算得到互学习前后两个损失值的损失变化值,从而进一步基于损失变化值计算得到更新概率值;同理,对于人脸特征识别模型B来说,基于互学习前的网络参数和互学习后的网络参数分别进行损失值计算,并计算得到互学习前后两个损失值的损失变化值,从而进一步基于损失变化值计算得到更新概率值。
d.人脸特征识别模型A与人脸特征识别模型B分别根据各自对应的更新概率值对其各个网络层的网络参数进行更新。
e.结束人脸特征识别模型A与人脸特征识别模型B之间的互学习,返回S3。
S6:人脸特征识别模型A与人脸特征识别模型B训练完成,保留人脸特征识别模型A/人脸特征识别模型B,去除保留下的人脸特征识别模型A/人脸特征识别模型B中的分类层,从而得到最终的人脸特征识别模型。
本实施例能够先利用单个类型的训练集对每个网络模型单独进行训练,然后在每个网络模型的每个网络层之间进行网络参数的互学习,以使得每个网络模型除了从当前场景下的训练集中学习外,还会学习其他网络模型的在其他场景下的特征识别能力,当前场景下的学习与其他场景下的学习相辅相成,互相促进,进一步提升网络模型的性能,使得模型具有很好的泛化能力,能够得到同时兼具各场景下的特征识别能力的网络模型。同时,每个网络模型只基于某种特定类型的训练集进行训练,在训练时训练样本图像具有更好的一致性,使网络模型能更好地收敛,避免不同类型的训练样本图像之间的相互干扰;此外,用于训练网络模型的权重随着迭代次数的增加自适应变化,使得网络模型在训练前期更关注于特定场景下的网络模型的自身性能提升,在训练后期更关注于网络模型在不同场景下的泛化能力,在尽量保证网络模型收敛稳定的前提下,提高网络模型的普适性。而且,根据更新概率值确定是否利用互学习后的网络参数对互学习前的网络参数进行更新,能够使得网络模型在训练前期更关注于解空间的广度,避免过早收敛到局部最优解,在训练后期更关注解空间的深度,使网络模型具有更高的特征识别性能,很好地提高模型的鲁棒性,进一步提高网络模型的多场景图像识别能力。
请参阅图5,图5是本申请提供的目标识别方法一实施例的流程示意图,该方法包括:
步骤51:将待识别图像输入网络模型,得到目标对象的待识别特征。
目标对象可为生物也可为非生物,也就是说,本实施例中的目标识别方法可用于人脸识别等生物特征识别或车辆等非生物特征识别中,在此不作限定。
以网络模型为人脸特征识别模型为例,待识别特征可为待识别人脸图像的人脸特征向量;具体地,网络模型可为利用上述实施例中的网络模型的训练方法训练得到的最终的网络模型,在利用上述实施例中的网络模型的训练方法将网络模型训练完成后,可将得到的最终的网络模型的分类层去除,仅保留最后一个全连接层,待识别特征即为最终的网络模型的全连接层提取出的特征向量。
步骤52:对待识别特征与比对特征进行相似度计算,得到相似度值。
比对特征可为预设特征底库中的特征向量,通过将待识别特征与比对特征进行相似度计算,能够判断比对特征是否与预设特征底库中的特征一致。
步骤53:基于相似度值,得到目标识别结果。
基于相似度值,得到目标识别结果;具体地,可判断相似度值是否大于预设阈值,若相似度值大于预设阈值,则判定比对成功,进而再基于目标识别结果进行识别或分类等操作;预设阈值可根据实际情况进行设置,在此不作限定。
本实施例能够利用具备多场景识别能力的网络模型对待识别图像进行特征识别,得到目标对象的待识别特征;然后基于待识别特征与比对特征的相似度值,得到目标识别结果,能够大大提高目标识别精度。
请参阅图6,图6是本申请提供的网络模型的训练装置一实施例的结构示意图,网络模型的训练装置60包括互相连接的存储器61和处理器62,存储器61用于存储计算机程序,计算机程序在被处理器62执行时,用于实现上述实施例中的网络模型的训练方法。
请参阅图7,图7是本申请提供的目标识别装置一实施例的结构示意图,目标识别装置70包括互相连接的存储器71和处理器72,存储器71用于存储计算机程序,计算机程序在被处理器72执行时,用于实现上述实施例中的目标识别方法。
请参阅图8,图8是本申请提供的计算机可读存储介质一实施例的结构示意图,计算机可读存储介质80用于存储计算机程序81,计算机程序81在被处理器执行时,用于实现上述实施例中的目标识别方法或网络模型的训练方法。
计算机可读存储介质80可以是服务端、U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本申请所提供的几个实施方式中,应该理解到,所揭露的方法以及设备,可以通过其它的方式实现。例如,以上所描述的设备实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施方式中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
若本申请技术方案涉及个人信息,应用本申请技术方案的产品在处理个人信息前,已明确告知个人信息处理规则,并取得个人自主同意。若本申请技术方案涉及敏感个人信息,应用本申请技术方案的产品在处理敏感个人信息前,已取得个人单独同意,并且同时满足“明示同意”的要求。例如,在摄像头等个人信息采集装置处,设置明确显著的标识告知已进入个人信息采集范围,将会对个人信息进行采集,若个人自愿进入采集范围即视为同意对其个人信息进行采集;或者在个人信息处理的装置上,利用明显的标识/信息告知个人信息处理规则的情况下,通过弹窗信息或请个人自行上传其个人信息等方式获得个人授权;其中,个人信息处理规则可包括个人信息处理者、个人信息处理目的、处理方式以及处理的个人信息种类等信息。
以上仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (12)

1.一种网络模型的训练方法,其特征在于,包括:
获取至少两个训练集;每个所述训练集分别包含不同应用场景下的多个训练样本图像;
获取与所述训练集数量对应的至少两个网络模型,其中所述至少两个网络模型具有相同的网络结构;
利用各所述训练集中的训练样本图像对对应的所述网络模型进行迭代训练,以使得所述网络模型基于所述训练样本图像对自身的网络参数进行调整;
响应于所述迭代训练达到预设的互学习条件,在所述至少两个网络模型的相同位置的网络参数之间进行互学习;
响应于所述至少两个网络模型未训练完成,返回所述利用各所述训练集中的训练样本图像对对应的所述网络模型进行迭代训练的步骤;
响应于所述至少两个网络模型训练完成,从所述至少两个网络模型中确定出最终的网络模型。
2.根据权利要求1所述的网络模型的训练方法,其特征在于,所述响应于所述迭代训练达到预设的互学习条件,在所述至少两个网络模型的相同位置的网络参数之间进行互学习的步骤,包括:
响应于各所述网络模型的当前迭代次数达到预设的次数阈值,判定所述迭代训练达到所述互学习条件。
3.根据权利要求1所述的网络模型的训练方法,其特征在于,
所述响应于所述迭代训练达到预设的互学习条件,在所述至少两个网络模型的相同位置的网络参数之间进行互学习的步骤,还包括:
从所述至少两个网络模型中选择任一网络模型作为待更新网络模型;
将所述待更新网络模型和其他网络模型中位置相同的网络参数进行加权求和,以将求和值作为所述待更新网络模型的互学习后的网络参数;
在所述待更新网络模型的网络参数更新完成后,从所述至少两个网络模型中选择另一网络模型作为待更新网络模型,直至所有网络模型遍历完毕。
4.根据权利要求3所述的网络模型的训练方法,其特征在于,所述将所述待更新网络模型和其他网络模型中位置相同的网络参数进行加权求和的步骤,包括:
获取第一权重与第二权重;
以所述第一权重作为所述待更新网络模型的网络参数的权重值,以所述第二权重作为其他网络模型的网络参数的权重值,其中所述第一权重随所述迭代训练逐步减小,并且/或者所述第二权重随所述迭代训练逐步增大。
5.根据权利要求4所述的网络模型的训练方法,其特征在于,所述获取第一权重与第二权重的步骤,包括:
基于所述至少两个网络模型的总数量、当前迭代次数以及最大迭代次数,计算得到所述第一权重,其中所述第一权重与所述当前迭代次数负相关;
基于所述第一权重与所述至少两个网络模型的总数量,计算得到所述第二权重,其中所述第二权重与所述第一权重负相关。
6.根据权利要求1所述的网络模型的训练方法,其特征在于,所述响应于所述迭代训练达到预设的互学习条件,在所述至少两个网络模型的相同位置的网络参数之间进行互学习的步骤,还包括:
获取待更新网络模型在互学习前的网络参数下的第一损失值以及在互学习后的网络参数下对应的第二损失值;
将所述第一损失值与所述第二损失值相减,得到损失变化值;
基于所述损失变化值,计算得到更新概率值,其中所述更新概率值与所述损失变化值正相关;
基于所述更新概率值,确定是否利用所述互学习后的网络参数对所述互学习前的网络参数进行更新。
7.根据权利要求6所述的网络模型的训练方法,其特征在于,所述基于所述损失变化值,计算得到更新概率值的步骤,包括:
响应于所述损失变化值大于预设的损失阈值,确定所述更新概率值为第一预设数值;
响应于所述损失变化值小于或等于所述损失阈值,基于预设退火温度值与所述损失变化值计算得到所述更新概率值,其中所述更新概率值进一步与所述退火温度值负相关,所述退火温度值随迭代训练逐步减小。
8.根据权利要求6所述的网络模型的训练方法,其特征在于,所述基于所述更新概率值,确定是否利用所述互学习后的网络参数对所述互学习前的网络参数进行更新的步骤,包括:
针对所述待更新网络模型的每个所述网络参数,在预设数值区间内生成一随机数;
响应于所述随机数大于所述更新概率值,保持所述互学习前的网络参数不变,响应于所述随机数小于或等于所述更新概率值,利用所述互学习后的网络参数对所述互学习前的网络参数进行更新;或者
响应于所述随机数小于或等于所述更新概率值,保持所述互学习前的网络参数不变,响应于所述随机数大于所述更新概率值,利用所述互学习后的网络参数对所述互学习前的网络参数进行更新。
9.一种目标识别方法,其特征在于,包括:
将待识别图像输入网络模型,得到目标对象的待识别特征;
其中,所述网络模型为利用权利要求1-8中任一项所述的网络模型的训练方法训练得到的最终的网络模型;
对所述待识别特征与比对特征进行相似度计算,得到相似度值;
基于所述相似度值,得到目标识别结果。
10.一种网络模型的训练装置,其特征在于,包括互相连接的存储器和处理器,其中,所述存储器用于存储计算机程序,所述计算机程序在被所述处理器执行时,用于实现权利要求1-8中任一项所述的网络模型的训练方法。
11.一种目标识别装置,其特征在于,包括互相连接的存储器和处理器,其中,所述存储器用于存储计算机程序,所述计算机程序在被所述处理器执行时,用于实现权利要求9所述的目标识别方法。
12.一种计算机可读存储介质,用于存储计算机程序,其特征在于,所述计算机程序在被处理器执行时,用于实现权利要求1-8中任一项所述的网络模型的训练方法或权利要求9所述的目标识别方法。
CN202210983598.5A 2022-08-16 2022-08-16 一种网络模型的训练方法、目标识别方法及相关设备 Pending CN115471671A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210983598.5A CN115471671A (zh) 2022-08-16 2022-08-16 一种网络模型的训练方法、目标识别方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210983598.5A CN115471671A (zh) 2022-08-16 2022-08-16 一种网络模型的训练方法、目标识别方法及相关设备

Publications (1)

Publication Number Publication Date
CN115471671A true CN115471671A (zh) 2022-12-13

Family

ID=84367841

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210983598.5A Pending CN115471671A (zh) 2022-08-16 2022-08-16 一种网络模型的训练方法、目标识别方法及相关设备

Country Status (1)

Country Link
CN (1) CN115471671A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116821966A (zh) * 2023-08-25 2023-09-29 杭州海康威视数字技术股份有限公司 机器学习模型训练数据集隐私保护方法、装置及设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116821966A (zh) * 2023-08-25 2023-09-29 杭州海康威视数字技术股份有限公司 机器学习模型训练数据集隐私保护方法、装置及设备
CN116821966B (zh) * 2023-08-25 2023-12-19 杭州海康威视数字技术股份有限公司 机器学习模型训练数据集隐私保护方法、装置及设备

Similar Documents

Publication Publication Date Title
US10395103B2 (en) Object detection method, object detection apparatus, and program
CN108269254B (zh) 图像质量评估方法和装置
CN110599451A (zh) 医学图像病灶检测定位方法、装置、设备及存储介质
JP5459674B2 (ja) 移動物体追跡システムおよび移動物体追跡方法
CN108230291B (zh) 物体识别系统训练方法、物体识别方法、装置和电子设备
CN109271958B (zh) 人脸年龄识别方法及装置
CN108805016B (zh) 一种头肩区域检测方法及装置
CN111914665B (zh) 一种人脸遮挡检测方法、装置、设备及存储介质
CN110674680B (zh) 活体识别的方法、装置、存储介质
US20220366570A1 (en) Object tracking device and object tracking method
CN112802108B (zh) 目标对象定位方法、装置、电子设备及可读存储介质
CN111814846B (zh) 属性识别模型的训练方法、识别方法及相关设备
CN110349188A (zh) 基于tsk模糊模型的多目标跟踪方法、装置及存储介质
CN115546705B (zh) 目标识别方法、终端设备及存储介质
CN112884782A (zh) 生物对象分割方法、装置、计算机设备和存储介质
CN113139462A (zh) 无监督的人脸图像质量评估方法、电子设备和存储介质
US20230154016A1 (en) Information processing apparatus, information processing method, and storage medium
CN115471671A (zh) 一种网络模型的训练方法、目标识别方法及相关设备
CN113516713B (zh) 一种基于伪孪生网络的无人机自适应目标跟踪方法
CN113838087A (zh) 一种抗遮挡目标跟踪方法及系统
CN116091781B (zh) 一种用于图像识别的数据处理方法及装置
CN111753775A (zh) 鱼的生长评估方法、装置、设备及存储介质
CN116258881A (zh) 一种图像聚类方法、装置、终端及计算机可读存储介质
CN112446428B (zh) 一种图像数据处理方法及装置
CN113554685A (zh) 遥感卫星运动目标检测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination